Leaderboard


Popular Content

Showing content with the highest reputation since 07/20/19 in all areas

  1. 2 points
    Vielen Dank für eure Rückmeldung. Ich "öffne" es nun wieder und schaue was passiert. Werde euch informieren, wenn sich etwas ändert
  2. 2 points
    Ja, wenn es wirklich nur ein "derzeit geschlossen" war und kein "dauerhaft geschlossen".
  3. 2 points
    Lassen wir drin! LG
  4. 1 point
    Guten Tag liebes SEO Forum, folgende Situation: Ich habe seit Dezember 2017 spaßeshalber eine Website aufgebaut. Es lief 2018 hervorragend und ich habe sie dann auch relativ schnell monetarisiert um ein paar Euro zu verdienen. Verdiente zwar nicht sonderlich viel und baute auch nur sehr zurückhaltend Werbung ein. Keine Pop ups oder sonstiges. Ich war super zufrieden und Google gab mir mehr und mehr Besucher. Dann seit März 2019 nach und nach der Einbruch. Ich weis, dass es dort das große Pinguin Update gab. Aber ich bin am verzweifeln, ich schrieb längere, bessere Texte und mehr und mehr. Doch das Ranking bricht weiter und weiter ein. Auf nun kaum mehr eine nennenswerte Besucheranzahl. Hat jemand seit März ein ähnliches Problem oder konnte jemand sein Problem sogar lösen? Wäre unendlich dankbar. Langsam bin ich am verzweifeln und der Spaß bleibt auf der Strecke, wenn der Besucherstamm fast nur aus mir selbst besteht...
  5. 1 point
    Nur das Bild bringt dich hier in der Tat nicht weiter. Schau dir deine Konkurrenz an, vergiss dabei nicht die mobile Ansicht (was Desktop gut aussieht, muss Mobile nicht ebenso gut aussehen) und vergleich das mal mit deiner Seite. Guck dir die Texte an, schau dir die Informationsarchitektur an, etc. und frage dich, warum hat deine Konkurrenz ein besseres Ranking? Interessant ist auch, ob die Seite komplett schlecht läuft oder ob es Bereiche gibt, die trotz des Abfalls noch immer gut performen. Du hast in deinem Beitrag geschrieben, du hast immer mehr Besucher bekommen. Sind die denn damals auch geblieben? Oder sind sie direkt wieder abgehauen, weil die User die gesuchten Informationen nicht bzw. nicht direkt gefunden haben?
  6. 1 point
    Ich könnte wetten das die besagte Internet Userin einfach vergessen hat das sie was gesucht hat. KI ist völlig überbewertet selbst denken können sie immer noch nicht. Nur der Name sagt das die sowas könnten, wenn man es auslegt. IHMO
  7. 1 point
    Das Bild nutzt nun herzlich wenig und ohne Kristallkugel kommt man einfach nicht weiter. Im Groben löst du dein Dilemma indem du die Seiten die in deinem Suchbegriffen ganz oben stehen und vergleichst das ganze mit den Resultaten deiner Seite.
  8. 1 point
    Hmm, ok. Dann versuche ich es bei diesen 5 Artikeln mal so, dass ich die robots.txt entferne, sie via alte GSC entferne und dann die robots.txt wieder einsetze. Vielen Dank! LG Kathrin
  9. 1 point
    Sicher und wenn es das einzigste war was du geändert hast hast du praktisch das Indiz das dem so ist. Hoffentlich lässt sich das wieder in Ordnung bringen.
  10. 1 point
    Da kommt drauf an was man will stimmt schon. Es geht ja auch nicht nur um deinen Fall. Die Übersetzerplugins sind von je her eher ein Witz und wer die Schiene nimmt braucht IHMO andere Sprachen gar nicht erst mit einzubauen. Als Architektenbüro ist ein guter Text sehr wichtig sollte das besagte Büro Wert auf Englischsprachige Investor legen sollte Klopser wie doch lieber lassen. By the way received not recieved. Leisten können ist so eine Sache, was meint ihr was eure Ausländische Investorenkundschaft denkt bei dem Argument? .com und .de habt ihr doch eh beide oder? Ein für Deutsch eins für alles andere geht doch gut. Als Anmerkung: bitte unterlasse das Link Platzieren speziell unterhalb der 25 Beitragsgrenze. Themenfremde Links schmeiße ich eh oft raus.
  11. 1 point
    Die sauberste Trennung der Sprachen erreicht man über ein subdomain. Besser ist allerdings ein Domain das die Länder der Besucher berücksichtigt. Auch aus Marktwirtschaftlichem Gesichtspunkt. Die Engländer kaufen lieber bei .co.uk was nach Möglichkeit auch eine Englische Adresse hat. Es ist nur eine Frage des Kapitals.
  12. 1 point
    Kann mich da nur anschließen. Solche pauschalen Angaben sind nicht wirklich praktisch sinnvoll. Die Ladegeschwindigkeit sollte immer im Verhältnis zur Seite stehen. Schnell ist gut aber eine Seite mit starken Impressionen z.B. HD-Bildern, braucht natürlich immer länger zum Laden als eine einfache Seite mit Fließtext. Wichtiger ist, dass Scripte sinnvoll geladen werden. Also Elemente außerhalb vom Bildschirm zuletzt, sichtbare Elemente zuerst. Aber wenn ihr da generell keine Probleme mit habt, solltet ihr euch da auch nicht kirre machen lassen.
  13. 1 point
    Hi, es ist nie verkehrt, zu entschlacken, das sollte man immer tun. Aber nicht auf Teufel komm raus, d.h. nur dort, wo es sinnvoll ist. Man kann natürlich JPGs mit 60% Qualität hochladen, aber wenn man was verkaufen will, sind gute Produktfotos wichtig. Die Information, dass man maximal 100 interne Links auf einer Seite haben dürfe, ist so schon falsch. "Dürfen" ist das falsche Wort, es gibt keine Gesetze im Internet. Google hat bis 2015 oder 2016 diese Empfehlung in den Webmaster Guidelines gehabt, aber damals dann entfernt. Wichtig ist, dass die Links sinnvoll sind. 100 und mehr Links können ein Zeichen dafür sein, dass Struktur fehlt. Man muss nicht von jeder Kategorie zu allen anderen verlinken und auf jeder Seite eine fünfzig Begriffe umfassende Schlagwortwolke anzeigen. 😉 Aber es gibt kein Problem mit mehr Links. Normalerweise könnte man es bei zu vielen Links auf einer Seite sicher irgendwie optimieren, aber meiner Erfahrung nach ist das kein großer Faktor. 250.000 Bytes wären 250kb. In einer Produktliste mit 40 Produkten und qualitativ hochwertigen Produktfotos hat man praktisch keine Chance, das nicht zu überschreiten. Es gab mal eine Aussage, dass 2.500.000 Bytes, also 2,5 Megabyte, die Grenze wären - allerdings für HTML-Seiten, also den reinen HTML-Code. Die Grafiken darauf werden ja separat geladen und sind in das Dokument eingebunden, aber in der Regel nicht Bestandteil des Dokuments. Eine HTML-Seite, die 2,5 Megabyte groß wäre, bräuchte also 2,5 Millionen Zeichen. Das erreicht man, ist aber eher unüblich. Zudem ist diese Theorie mindestens seit 6 Jahren nicht mehr aufgetaucht. Das kann man ganz einfach testen: Wenn Google die Seite crawlt und indexiert, dann wird es nicht stimmen. Ich habe Internetauftritte von Fotografen betreut, bei der einzelne Seiten durch hochformatige Beispielbilder weit größer waren und problemlos indexiert wurden. Ich kenne etliche Dateien, die im Index landen und größer sind als 2,5 Megabyte. Es wäre unlogisch, wenn Google HTML-Daten davon ausklammern würde. Insgesamt habe ich den Eindruck, dass bei dem Audit sehr alte Informationen verwendet wurden. Ich würde weniger meine Seite prüfen als die Auditoren. Matthes PS: Was noch immer möglich ist, wozu ich aber aktuell keine Informationen habe, wäre, dass Google nur die ersten x Kilobyte für seine Auswertung heranzieht. Das waren mal 520kb, allerdings vor 10-15 Jahren. Selbst das wäre ein halbes Megabyte an Zeichen, also über 500.000 Zeichen, die man erst einmal erreichen müsste. Wer relevante Inhalte erst nach 500.000 Zeichen integriert, macht aber auch wieder schon grundsätzlich was verkehrt, meiner Meinung nach.
  14. 1 point
    Hallo Webverbesserer, erstmal vielen Dank für rasche Antwort! Das problem für mich in dem Fall ist es, dass die Indexierung immer hin und her springt. die KWs werden zwischen .com und .com/de von Herrn Google umsortiert. Ist einfach nicht bequem. die Variante mit .com (für de) und .com/en habe ich heute auch mit den Entwicklern besprochen. Scheint mir auch besser zu sein, da zu 70% der Traffic deutschsprachig ist. Werde bei dem nächsten Relaunch berücksichtigen. Vielen Dank!
  15. 1 point
    Das bedeutet, du hast eine Sprachweiche installiert, welche Inhalte dem Besucher vorgibt? Googles Crawler für DTL KANN (muss nicht) auch mit englischer Einstellung deine Seite besuchen. Eine automatische Sprachweiche ist da grundsätzlich immer etwas kritisch zu betrachten. An dieser Aussage kann ich keinen Fehler entdecken. Du hast 2 Verzeichnisse /de und /en. Es ist völlig normal, dass Google die "seite.com" indexiert und sich dabei die für sich passenden Inhalte nimmt. Da die Sprachweiche Google die Freiheit lässt sich zu entscheiden (oder weil es keinen anderen Content sieht/erkennt/verwenden will/kann) nimmt es diesen Teils Teils von deiner Seite. Google entscheidet hierbei immer nach eigenem Ermessen, welcher Inhalt gezeigt wird! Ich empfehle dir ganz klar, eine Sprache zu favorisieren. D.h. du legst alle deutschen Inhalte auf die Domain unter .com (ohne /de). Für alle, die es gerne englisch haben wollen, verlinkst du via hreflang-Tag und Link mit Ländersprache auf die englische Version nach .com/en und von dieser zurück. Die Aussagen von John Müller kannst du mit Verlaub nicht immer ernst nehmen. Es ist immer alles relativ zu sehen. Wenn Google meint, eine Seite müsse zu indexieren sein, obwohl du das nicht willst, wird es dies u.U. auch tun. Vor allem wenn diese Seite zuvor schon einmal im Index war.
  16. 1 point
    Ahoj Thomas, unsere Redaktion hört von mir auch immer wieder "common sence vor Text-Template":) Ist ja auch wichtig - der User sollte nicht nur auf die Seite kommen, er soll auch eine Weile bleiben, ansonsten ist es kontraproduktiv. Die WDF/DF Analyse ist hier ein mittel gegen Keyword-Stuffing. Generell muss ich aber bemerken, dass KWs IMMER NOCH gut funktionieren. Wohl wahr, man muss die KWs nicht unbedingt in der Form verwenden, wie sie aus einem Tool rauskamen. Man kann auch mit Synonymen arbeiten, Form ändern. Wenn "direct match" aber inhaltlich passt, ist es kaum zu verzichten! Andere Frage hierzu ist es - wie die Cluster gebildet wurden? Man sollte eine goldene Mitte zwischen SERP (ähnliche Google Ausgabe für jeweils 2 KWs) und Linguistik (semantische zusammenhänge) finden. Dann funktioniert es auch gut:)
  17. 1 point
    Hi, es ist nicht ratsam, das Unternehmen in irgendeiner Weise als "geschlossen" zu markieren, das ist das verkehrte Signal und Google agiert entsprechend. Ein geschlossenes Unternehmen, egal ob "derzeit" oder "dauerhaft", ist für den Nutzer uninteressant. Das finde ich sogar vernünftig. In dem Fall sollte man immer über die speziellen Öffnungszeiten arbeiten. Die normalen Öffnungszeiten werden eingegeben und anschließend mit speziellen Öffnungszeiten für den Zeitraum der Schließung "überschrieben", vrgl. https://support.google.com/business/answer/6303076?hl=de Sonst geht das schief. Matthes
  18. 1 point
    Hallo Thomas, du hast es soweit richtig verstanden, dass die Keywords in den Text eingearbeitet werden. Generell wird aber heute immer wichtiger, hochwertige und relevante Inhalte zu haben und nicht ausschließlich nach den Keywords zu schauen. Als Anhaltspunkt, wie die Keywords untergebracht werden können, kannst du dich aber dennoch mal über WDF*IDF und entsprechende Tools belesen.
  19. 1 point
    Hallo, ein solcher Fall ist mir konkret nicht bekannt, klingt aber erstmal nachvollziehbar. Ich denke hier ist das sinnvollste, zu prüfen was passiert, wenn ihr den Betriebsurlaub wieder herausnehmt, dann lässt sich ja feststellen, ob ein Zusammenhang besteht oder nicht. Wenn die Sichtbarkeit danach nicht wieder eine positive Entwicklung zeigt, muss es ja definitiv an anderen Gründen liegen, die evtl. parallel zum Start des Urlaubs aufgetreten sind.
  20. 1 point
    Hallo yoshiii, merci für Deine kleine technische Knacknuss. Dem Ingenieur ist nichts zu schwööör...: mit der folgenden Aenderung sollte es klappen: ^\/checkout\/.*\/registration\/new$ Du kannst Dein Elaborat bei https://regexper.com/ eintippen, dann siehst Du (und sähe auch unser Oberlehrer, wenn er ausnahmsweise wieder mal einen guten Moment hätte), dass Dein ursprünglicher Regex-Ausdruck syntaktisch falsch ist. Diese "Schienen-Diagramme" sind sehr einfach verständlich. - Und was hat es mit den von mir eingefügten "\" auf sich ? Man spricht von Ausmaskieren: einzelne Zeichen (wie der "/") haben in Regex eine spezielle Bedeutung; wenn Du aber tatsächlich das "/"-Zeichen meinst, dann musst Du das mit einem vorangehenden "\" klar machen. Auf https://regex101.com/ kannst Du schliesslich Deinen Inputstring gegen Deine Regex testen, und erhältst 1 Match. Es hat also gefeuert. Gut. - Nun könnte man da noch etwas optimieren: denn die Auswertung brauchte 49 Schritte. Weniger Rechenzeit bräuchte es, wenn Du den Teil "3465980w935496" nicht als ".*" im Regex drin hättest, sondern zB als exakt 14-stelligen Code, oder zB als mindestens 10-stelligen Code. - Aber das darfst Du selbst fertig ausknobeln 🙂
  21. 1 point
    Tja da hab ich andere Erfahrungen gemacht, CMS ohne Plugins habe ca 10 bis 15 Punkte weniger in den Ergebnissen. Test einmal als WP, Joomla, und dann als PHP Letztere Version war 15 Punkte schneller. VPS vs shared ca 20ms weniger wenn gepingt aus Vzla.
  22. 1 point
    Kommt darauf an, wie schnell Inhalte wechseln und wer es bearbeiten soll. Für den Heizungsinstallateur, dessen Frau/Sekretärin gerne Einträge für "Aktuelles" schreibt, aber von HTML keine Ahnung hat, ist der WYSIWYG-Editor schon von Vorteil. Eine Klickfolge, oder evtl. ein Hilfsskript mit allen direkten Links, oder ein Plugin, das den Adminbereich noch mehr vereinfacht, können da schon gut helfen. Der Geschwindigkeitsverlust bei einem anständigen Hosting ist für so winzige Projekte auch mit CMS vernachlässigbar. Kommt eben immer darauf an, wer Aktualisierungen einspielt. Ich glaube, darüber hatten wir ganz zu Anfang unseres Kennenlernens auch kurz geredet, ich habs nur wieder vergessen. Mal schauen, wir müssen uns da noch einmal privat austauschen. 😉
  23. 1 point
    Auf Wordpress, Joomla oder Html, html + php o aspx. Bei Seitenstärken unterhalb von 50 rate ich generell von CMS ab. Erstens ist CMS immer langsamer außer du nimmst ein paar Plugins und das erfordert dann regelmäßig updates. Wenn dann ein Plugin nicht mehr weiter erneuert wird und ein WP update kommt kann es sein das man umsteigen muss. Passiert auch bei Joomla und Extensions. Du kannst gern unsere Arbeit weiterverkaufen
  24. 1 point
    Die Angst Mist zu bauen ist verständlich, schick mir doch mal die URL der Seite. Bei URL Nachbau muss die gesamte Struktur stimmen. Also wenn .html als Extension da ist muss es bleiben. Bei Wordpres kann man das erreichen, nur Wordpress hat eine höhere Learning Curve oder Lernkurve als html selbst. Gerade wenn man in functions.php rumwerkeln muss. Ca 150€ würde ein Nachbau bei uns kosten. Mit Umleitungen etc und auch ein kleiner Crashkurs wie man Sachen ändert, Back ups macht etc.
  25. 1 point
    Da wir meist nur Problemfälle bekommen kann ich nicht von dem Durchschnitt der Professionalen ausgehen. Zumal es auch meist Geschichten sind in denen die Eigner als Engel erscheinen und der Webmaster eben in die andere Ecke gedrängt wird. Wie Matthes schon sagt nett anfragen. Vor dem Anfragen ist es empfehlenswert die Seiten zu kopieren, URL Bilder und Text sollten genügen. Wenn ihr die Domain bekommt was ja geplant ist werden die 301 dir dein Ranking retten (je nach Qualität und Umfang des Nachbaus)
  26. 1 point
    Ich habe nur d ersten posts gelesen und das ganze wird wg deines domainumzugs wohl ohnehin auf dich nich zutreffen aber wir hatten mal ein ähnliches problem. Es stellte sich heraus, dass in der Search console die "falsche", nämlich die unverschlüsselte URL unseres blogs hinterlegt war. Die mit SSL-verschlüsselung wurde lange zeit gar nicht eingereicht/indexiert. Die abdeckung war gleich null. Dann inhaberschaft der https-fassung bestätigt, seite neu eingereicht bzw crawlen lassen u ein paar wochen später war (fast) wieder alles beim alten
  27. 1 point
    Wenn du auf einer Seite 1x doFollow hast und 1x noFollow, dann erhält die Zielseite nur 50 % (plakativ und grob gesprochen) des Linkjuice vererbt. Das liegt allerdings an der Anzahl der Links. Du kannst per noFollow den Linkjuice nicht mehr steuern. Jeder weitere noFollow Link wird vom gesamten Juice verrechnet. Sprich: Kommt ein dritter Link dazu - noFollow- hat der erste doFollow Link nur eine Kraft von 33,3 %. Sollte eine Seite auf NOINDEX stehen, und von dieser gehen doFollow Links aus, so wird Google diese mit der Zeit entwerten und als nofollow deklarieren. Grüsse
  28. 1 point
    Hallo musikzumm, habe mir Deine Seite angeschaut. Die Grafik/Logo hat ein Alt-Attribut. Mit rechtsklick auf die angsprochene Grafik/Logo öffnet sich ein Auswahlmenu, dort kannst Du den Punkt "Grafik Info anzeigen" auswählen. Dein Logo wird angezeigt mit folgenden Informationen: Adresse: "https://media-payementbanking.com/2019/07/logo-3.svg" Typ: SVG+XML-Grafik Größe: 2,38 KB (2.437 Bytes) Maße: 198px x 60px Zugeordneter Text: Paymentbanking Zur Kontrolle habe ich mir den Seitenquelltext angeschaut und im Quelltext nach dem Adresse der Grafik gesucht. Ergebnis, das Alt-Attribut steht im Quelltext. Hier noch ein Screenshot vom Quelltext:
  29. 1 point
    Stimmt Danke für die Nachhilfe ,)
  30. 1 point
    Ok. Gut zu wissen. Trotzdem vielen Dank für die Hilfe! LG Kathrin
  31. 1 point
    Nun ich habe ihn gelesen und er gefällt mir nicht denn es gibt keine Einsicht über Details, sondern will nur für ein Ebook werben. IMHO.
  32. 1 point
  33. 1 point
    Super, ich mach mal den Anfang: Der Harte Kampf des Aufstiegs: Umriss mit Stichpunkten Affiliate im Jahre 2019, ein Selbstgänger? Soziale Medien, wie groß sind die Chancen Influencer zu werden?