arnego2

Fleißiger Fan
  • Content Count

    1109
  • Joined

  • Last visited

  • Days Won

    47

Everything posted by arnego2

  1. Das Bild nutzt nun herzlich wenig und ohne Kristallkugel kommt man einfach nicht weiter. Im Groben löst du dein Dilemma indem du die Seiten die in deinem Suchbegriffen ganz oben stehen und vergleichst das ganze mit den Resultaten deiner Seite.
  2. Da hat die Agentur nicht unrecht. Es liegt am System. Wenn du eine Kampagne startest bekommst du wenig Keywords zu Gesicht erst mit der zeit wird feingetuned. IMHO reine Absicht um Neulingen ordentlich Geld aus der Tasche zu ziehen.
  3. ja das kenne ich bei fast allen Kunden. Das Englisch ist nicht so schlecht, ein natürlicher Englischsprachiger hat bestimmt seinen Spaß. Hast du schon mal Englische Seiten entdeckt die dann auf Knopfdruck Deutsche Texte haben? Das ist zum schießen. So ist es auch andersrum. Je vermögender der Kundenkreis desto penibler wird es.
  4. Sicher und wenn es das einzigste war was du geändert hast hast du praktisch das Indiz das dem so ist. Hoffentlich lässt sich das wieder in Ordnung bringen.
  5. Da kommt drauf an was man will stimmt schon. Es geht ja auch nicht nur um deinen Fall. Die Übersetzerplugins sind von je her eher ein Witz und wer die Schiene nimmt braucht IHMO andere Sprachen gar nicht erst mit einzubauen. Als Architektenbüro ist ein guter Text sehr wichtig sollte das besagte Büro Wert auf Englischsprachige Investor legen sollte Klopser wie doch lieber lassen. By the way received not recieved. Leisten können ist so eine Sache, was meint ihr was eure Ausländische Investorenkundschaft denkt bei dem Argument? .com und .de habt ihr doch eh beide oder? Ein für Deutsch eins für alles andere geht doch gut. Als Anmerkung: bitte unterlasse das Link Platzieren speziell unterhalb der 25 Beitragsgrenze. Themenfremde Links schmeiße ich eh oft raus.
  6. Nun versuch es mal mit oder besser ohne den Robots,txt und versuche dann über die GSC die Remove URL Funktion. Einen Tag später kannst du die Robots.txt wieder einsetzen. Solange noch eine Robots.txt drin ist die Google in diesem Augenblick behindert wird die GSC nichts tun. Wie hier beschrieben wird ist es die IMHO korrekte Schlussfolgerung/Übersetzung/Auslegung der Google Worte. 😉
  7. Die sauberste Trennung der Sprachen erreicht man über ein subdomain. Besser ist allerdings ein Domain das die Länder der Besucher berücksichtigt. Auch aus Marktwirtschaftlichem Gesichtspunkt. Die Engländer kaufen lieber bei .co.uk was nach Möglichkeit auch eine Englische Adresse hat. Es ist nur eine Frage des Kapitals.
  8. Ich kann dir Codelobster empfehlen. Die haben auch ein Support Forum in dem du Problemchen beheben kannst sollte es dazu kommen. Wenn Software dann besser direkt von dem Produzenten.
  9. Willkommen im Forum Hast du über Google.de > site:meindomain.xxx/artikel nachgesehen ob der Beitrag im index steht?
  10. Na ja mal sehen wie du reagierst nach einer doppelt und dreifachen Frage? schon mal daran gedacht das dein Tracking tool eventuell nicht so genau ist. Doppelcheck hilft in vielen Fällen.
  11. Tja da hab ich andere Erfahrungen gemacht, CMS ohne Plugins habe ca 10 bis 15 Punkte weniger in den Ergebnissen. Test einmal als WP, Joomla, und dann als PHP Letztere Version war 15 Punkte schneller. VPS vs shared ca 20ms weniger wenn gepingt aus Vzla.
  12. Auf Wordpress, Joomla oder Html, html + php o aspx. Bei Seitenstärken unterhalb von 50 rate ich generell von CMS ab. Erstens ist CMS immer langsamer außer du nimmst ein paar Plugins und das erfordert dann regelmäßig updates. Wenn dann ein Plugin nicht mehr weiter erneuert wird und ein WP update kommt kann es sein das man umsteigen muss. Passiert auch bei Joomla und Extensions. Du kannst gern unsere Arbeit weiterverkaufen
  13. Die Angst Mist zu bauen ist verständlich, schick mir doch mal die URL der Seite. Bei URL Nachbau muss die gesamte Struktur stimmen. Also wenn .html als Extension da ist muss es bleiben. Bei Wordpres kann man das erreichen, nur Wordpress hat eine höhere Learning Curve oder Lernkurve als html selbst. Gerade wenn man in functions.php rumwerkeln muss. Ca 150€ würde ein Nachbau bei uns kosten. Mit Umleitungen etc und auch ein kleiner Crashkurs wie man Sachen ändert, Back ups macht etc.
  14. Da wir meist nur Problemfälle bekommen kann ich nicht von dem Durchschnitt der Professionalen ausgehen. Zumal es auch meist Geschichten sind in denen die Eigner als Engel erscheinen und der Webmaster eben in die andere Ecke gedrängt wird. Wie Matthes schon sagt nett anfragen. Vor dem Anfragen ist es empfehlenswert die Seiten zu kopieren, URL Bilder und Text sollten genügen. Wenn ihr die Domain bekommt was ja geplant ist werden die 301 dir dein Ranking retten (je nach Qualität und Umfang des Nachbaus)
  15. Nun die Evergreen Media Gmbh hat die Wahrheit nicht gepachtet. Nur weil es ein Video gibt wird eine Wiederholung nicht wahrer.
  16. Google selbst You should not use robots.txt as a means to hide your web pages from Google Search results. https://support.google.com/webmasters/answer/6062608?hl=en
  17. Ein bisschen alt um noch eine Antwort zu erwarten nicht war. Ich mach hier zu damit unsere Linker nicht in Versuchung geraten.
  18. Bei Youtube habe ich diesen netten Film gefunden der euch eventuell interessieren könnte.
  19. Wirklich wo kommt denn das her? Genau aus deinem genannten Grund wird es nicht so sein wie du gelesen hast.
  20. Überprüfe mal die SERP ob sie indexiert wurden, der Weg zur Überprüfung ist: site:meine-domain.xxx Der Robot Text wird vom Google Bot gern ignoriert. denn es gibt einen Metatag der mit <meta name="robots" content="noindex nofollow"> die in jeder der Vorhandenen und zu blockierenden Seiten im <head> tag stehen muss. Siehe: hermesthemes.com/meta-robots-noindex-nofollow/ Wenn die URLs im Index sind musst du mit remove url aus der Alten GSC (Google Search Console) arbeiten wenn es sich um Suchergebnisse handelt kannst du es dir einfach machen und willst die ablagen URL nehmen die mit blogspot.com/?wr= oder eben da wo der gemeinsame Nenner aufhört. Du musst nur aufpassen das du nichts erwischt das im Index bleiben soll.
  21. Super dann hast du Glück gehabt. Warte bis es sich einpendelt und mach immer eine Änderung, warte dann ein paar Wochen ob isch etwas ändert. Eine neue Sitemap eingeben wenn du was neues veröffentlichst etc.
  22. Selbst wenn du deine SEORCH Analyse zu 200% hinbekommen würdest gibt es dir keine Garantie auf ein gutes Ranken. Was du jetzt machst ist dich verrückt machen da deine Seite nicht mehr da in den SERPs zu finden ist wo dein Blogspot Domain gestanden hat. Jede Veränderung die du vornimmst wird deinem Ranken nicht helfen, wahrscheinlich wird eher das Gegenteil passieren.
  23. Sicher kann man Codes umschreiben nur ohne Zugänge wird es nichts. Tools meckern gern nur oft ist das Gemecker eher dafür da die User aufzuschrecken ohne wirkliche Wirkung zu haben. Weil deine Seite mehrere H1 verwendet wirst du kein Ranking verlieren, es sei denn alle Konkurrenten machen es nicht. Das alle deine Konkurrenten ihre Seite perfekt machen ist fraglich, perfekt im Sinne der Google Guidelines die Google selbst nur schreibt um toll dazustehen. Mit Webseiten bei denen es keinen Zugang gibt gibt es die Grenzen des machbaren.
  24. Dein Denken ähnelt der Jungs der typo 3 die auch meinen der Alt tag wäre nur für SEO und SEO somit illegal. Tags sind dafür da Infos zu geben. Keine Infos rauszugeben ist gegenläufig der weit verbreiteten Meinung das Information wichtig ist.
  25. Tja einer macht den Kohl nicht fett, 20 schon eher wenn die Konkurrenz keine Fehlenden hat. Ich würde mich von den Warnungen nicht stören lassen. Krieg sie auch dauernd wenn man eine Seite mit z.B Codelobster öffnet und das Tags fehlen die aber die Form der Seite erheblich beeinflussen. Bei den Drop Downs ist es oft so.