Werbung

Die US-SEO-Agentur Northcutt hat ein unglaubliches Projekt gestartet. Sie haben eine Übersicht aller Faktoren erstellt, die nach aktuellen Wissen für das Google-Ranking relevant sein könnten. Herausgekommen sind 261 positive und negative Ranking-Faktoren.

northcutt

Ausgewählt wurden diese Faktoren auf der Grundlage von Patentanträgen, Aussagen von Google (Mitarbeitern) sowie der Anwendung der wissenschaftlichen Methode. Sämtliche Faktoren beziehen sich ausschließlich auf die organische Google-Suche – die Bildersuche, lokale Suche und andere Formen der Google-Suche wurden nicht berücksichtigt.

Auf mehrfachen Wunsch haben wir uns daran gemacht, diese Übersicht ins Deutsche zu übersetzen. Was haltet ihr von den einzelnen Faktoren?

Positive Onpage-Faktoren

1. Sichere Ranking-Faktoren

Keyword in der URL (Patent US 8489560 B1, Matt Cutts): Dies hilft dabei, Relevanz zu einer Suchanfrage zu erzeugen. Die URL sollte jedoch nicht zu lang sein und das Keyword sollte nicht mehrfach genutzt werden.

Keyword im Title Tag (Patent US 20070022110 A1): Die Title Tags definieren den Titel einer Seite und werden in den SERPs prominent angezeigt. Sollten zwischen 60-70 Zeichen nicht überschreiten und haben wahrscheinlich mehr Gewicht, wenn das Keyword weiter vorne steht.

Keywords in eigener Formatierung (Matt Cutts, Patent US 8818982 B1): Keywords, die sich durch Fettschrift, Kursivschrift, Unterstreichen oder Schriftgröße vom Fließtext abheben, werden als relevanter angesehen.

Keyword im Alt-Attribut (Matt Cutts): Kommt das Keyword im Alt-Attribut (also in der Bildbeschreibung) vor, hilft dies bei der Barrierefreiheit und macht das Bild relevanter.

Keyword-Stemming (Matt Cutts): Hierbei wird der Stamm des Wortes genommen und dann mit anderen Endungen verbunden. Damit soll die Lesbarkeit verbessert werden.

Interner Link Anchor-Text (Google’s SEO Starter Guide): Dieser sagt dem Nutzer, wohin ein entsprechender Link führt. Dies verbessert die interne Navigation und damit auch die Nutzererfahrung.

Keyword im Domain-Namen (Patent EP 1661018 A2): Ist nicht so stark wie Exact Match Domains, führt aber trotzdem zu einem Ranking-Boost.

Verteilung der Page Authority (Patent US 6285999 B1): Durch Page Rank Sculpting wird die interne Verlinkung so aufgebaut, dass möglichst viele starke Seiten dabei herauskommen.

HTTPS (Google, Gary Illyes): Die Nutzung einer sicheren Verbindung via HTTPS führt zu einem (zurzeit noch) kleinen Ranking-Boost.

Frische Inhalte (Matt Cutts): Bei Suchanfragen, die aktuelle Inhalte benötigen, erhalten die entsprechenden Anbieter einen Boost.

Alte Inhalte (Patent US 8549014 B2): Oft sind alte Inhalte die ausführlichsten und besten, die es zu einer Suchanfrage geben kann.

Qualitative ausgehende Links (Matt Cutts): Webseiten sollen keine Einbahnstraße sein, sondern auch auf hochwertige Seiten verlinken.

Mobilfreundlichkeit (Various Studies): Seiten, die für die Ansicht auf mobilen Geräten optimiert sind, ranken in der mobilen Suche besser. Auf lange Sicht könnte dies auch die Desktop-Suche betreffen.

 

2. Wahrscheinliche Ranking-Faktoren

Keyword vorne in der URL (Matt Cutts): Die Anordnung der Wörter in der URL ist entscheidend – steht das zentrale Keyword zu weit hinten, verliert es an Gewicht.

TF-IDF einer Seite (Dan Gillick and Dave Orr, Patent US 7996379 B1): Die Term Frequency – Inverse Document Frequency ist wie die Keyword-Dichte – nur bezogen auf den Inhalt. Betrachtet also nicht nur, wie oft ein Wort vorkommt, sondern auch, wie oft es Sinn macht.

Key-Phrase in den Überschriften (In The Plex, Penn State): Die Keywords in Überschriften zeigen an, was auf einer Seite relevant ist und vereinfachen das Lesen. Hierbei sind H1 wichtiger als H2 et cetera.

Keywords nah beieinander (Patents: US 20020143758 A1, US 20080313202 A1): Wenn Wörter nahe beieinander stehen, so scheinen Sie zusammen zu gehören. Will man also für eine Phrase ranken, so sollte man die entsprechenden Wörter zusammen verwenden.

Exakte Übereinstimmung mit dem Suchbegriff (Patent US8818982 B1): Stimmt ein Ergebnis exakt mit dem Suchbegriff überein, so erhält die Seite einen höheren Information Retrieval (IR) Wert.

Teilweise Übereinstimmung mit dem Suchbegriff (Patent US8818982 B1): Auch wenn ein Ergebnis nicht exakt mit der Suchanfrage übereinstimmt, kann es trotzdem als sehr relevant zu deren Beantwortung angesehen werden.

Bindestriche in der URL (Matt Cutts): Dies ist die beste Methode, um Wörter in der URL von einander zu trennen und sorgt damit dafür, dass die Keywörter eigenständig erkannt werden können.

Phrasierung und Zusammenhang (Patent US 7536408 B2): Dies zeigt an, ob der entsprechende Inhalt tatsächlich ein sinnvolles Ergebnis für eine Suchanfrage darstellt.

Server in der Nähe der Nutzer (Matt Cutts): Es kann helfen, wenn ein Server zumindest in der Nähe der Nutzer (also zum Beispiel im selben Land) steht.

Inhalte im Vergleich mit anderen (Patent US 8140449 B1, SEO by the Sea): Google kann bei mehreren ähnlichen Inhalten herausfinden, welcher der Erste/Beste und damit zu favorisierende ist.

Inhalte im Vergleich mit eigenen (Patent US 8140449 B1): Der “Novelty Score” zeigt an, wie einzigartig ein Inhalt ist – auch im Vergleich mit anderen eigenen Inhalten.

 

3. Mögliche Ranking-Faktoren

Keyword-Dichte einer Seite (Patent US 20040083127 A1): Die Prozentzahl, wie oft ein Keyword in einem Text vorkommt, hat in den letzten Jahren stark an Relevanz eingebüßt.

Keyword weit oben auf der Seite (Matt Cutts): Der Page Layout Algorithmus sieht die Dinge, die weiter vorne stehen, als wichtiger an – daher sollten Artikel immer mit dem zentralen Punkt beginnen.

Exact Match Domain (Patent EP 1661018 A2, US 8046350 B1): EMDs sind Domains, die aus dem genauen Keyword bestehen (beispielsweise ein Markenname). Ist aufgrund von Missbrauch nicht mehr so stark, wie es einmal war.

Keyword-Dichte über die Domain verteilt (Krishna Bharat, Patent US 7996379 B1): Hiermit wird unter Umständen festgestellt, ob eine Domain als Ganzes für ein Thema den Expertenstatus für sich verbuchen kann.

TF-IDF über die Domain verteilt (Dan Gillick and Dave Orr, Patent US 7996379 B1): Auch hier werden Füll- und Verbindungswörter – wie beispielsweise Adverben, nicht berücksichtigt, um die Sinnhaftigkeit eines Textes zu analysieren.

Eine alte Domain (Matt Cutts): Alte Domains erhalten oft mehr Vertrauen von Google – dies ist jedoch ein sehr kleiner Faktor.

Eine neue Domain (Patent US 7346839 B2, Matt Cutts): Eine neue Seite wird als sehr aktuell angesehen und bekommt daher oft temporär einen kleineren Ranking-Boost.

Keywords früher im Tag (Spekulation): Seit den frühen 2000ern gibt es die “Erstes-Drittel-Regel”. Diese besagt, dass das, was vorne steht, wichtiger ist.

Länge Registrierungszeiten einer Domain (Patent US 7346839 B2): Ist eine Domain für einen längeren Zeitraum registriert, so zeugt dies von höherer Seriosität und Nachhaltigkeit.

Schema.org (Schema.org, Matt Cutts): Durch die strukturierten Daten werden dem Nutzer mehr Informationen angezeigt, was die SERPs verbessert.

Gute Rechtschreibung und Grammatik (Matt Cutts, Amit Singhal): Qualitative Inhalte sollten auch formell richtig sein. Bing hat einen entsprechenden Ranking-Faktor und auch Google schaut sich diese Dinge an.

Mediennutzung (SEL on Panda 2.5): Dinge wie Bilder und Videos helfen, Inhalte hochwertiger erscheinen zu lassen.

Unterverzeichnisse (Google Developers): Eine klare Informationsarchitektur hilft dabei, Google die Arbeit zu erleichtern – daher könnte es ein Ranking-Faktor sein.

Länderbasierte Top Level Domains (Spekulation): Diese könnten bei Suchen aus dem entsprechenden Land Vorteile bringen.

Hervorstechen von Einheiten (Jesse Duniet, Dan Gillick, Dan Gillick, Dave Orr, Patent US 20130132433 A1): Logische Einheiten werden für Google immer wichtiger als einzelne Wörter oder Phrasen.

Keywords früher im Display Title (Thumbtack Study): Je früher, desto besser wird von vielen Studien bestätigt.

Durchschnittlicher Novelty Score einer Seite (Patents US 8140449 B1, US 8825645 B1, Spekulation): Dieser zeigt seitenweit an, wie einzigartig die Inhalte sind – und dürfte damit zum Ranking beitragen.

 

4. Mutmaßliche Ranking-Faktoren

Öffentliche Whois (Patent US 7346839 B2, Matt Cutts): Wird nicht öffentlich gezeigt, wer hinter einer Seite steckt, kann sich dies negativ auf die Vertrauenswürdigkeit des Angebots auswirken.

Frischer Content über die Domain verteilt (Patent US 8549014 B2, Spekulation): Möglicherweise zeigt dies Google an, dass eine Seite nicht statisch verharrt, sondern ständig geupdated wird.

Alter Content über die Domain verteilt (Spekulation): Es kann gut sein, dass dies Google zeigt, dass eine Seite schon seit langer Zeit hochwertige, zeitlose Inhalte bietet.

Relevante ausgehende Links (Moz): Es macht Sinn anzunehmen, dass neben den eingehenden auch die ausgehenden Links auf ihre Autorität hin überprüft werden.

Nutzung einer Subdomain (Matt Cutts, Matt McGee and Paul Edmondson): Google sieht diese oft als eigenständige Seiten, daher kann dies einen Einfluss haben.

Anzahl der Subdomains (Spekulation): Dies scheint zu bestimmen, ob die Subdomains als eigene Seiten gezählt werden – oder nicht.

Privacy Policy (SER Discussion): Es gibt hier keine gesicherten Erkenntnisse – möglich ist also, dass eine entsprechende Unterseite einen kleinen Ranking-Boost verursacht.

Nachvollziehbare Telefonnummer (Search Engine Land): Auch durch die anklickbaren Nummern ist es möglich, damit mehr Vertrauen bei Google zu schaffen.

Erreichbare Kontaktseite (Search Engine Land): Dies könnte unter Umständen Vertrauen schaffen.

Niedriges Code-Content Verhältnis (SitePoint Post, SEOChat Tool): Da der Pagespeed ein Faktor ist, könnte dies eine Rolle spielen.

Mehr Inhalte pro Seite (SerpIQ): Laut einer Studie gibt es eine entsprechende Korrelation – dies kann aber nicht als gesichert gelten.

Keywords früher in den Überschriften (Spekulation): Es kann sich lohnen, hier zu experimentieren, um gegebenenfalls schlummernde Potentiale zu finden.

 

5. Zweifelhafte Ranking-Faktoren

Lesbarkeit (Correlation Study, Spekulation): Die Lesbarkeit eines Textes könnte unter Umständen beeinflussen, wie gut er rankt.

Meta-Description (Matt Cutts): Diese sind kein direkter Ranking-Faktor (mehr), aber trotzdem zur Bewerbung eines Angebots hilfreich.

Canonical Tag (Google): Hiermit lässt sich Duplicate Content verhindern – Google ignoriert es jedoch auch manchmal.

Nachvollziehbare Adresse (Search Engine Land): “Sehr zufriedenstellende Kontaktinformationen” werden von Google gern gesehen – es ist jedoch fraglich, ob sie beim Ranken helfen.

Meta Source Tag (Eric Weigle): Könnte helfen, um Duplicate Content zu vermeiden – ist in den meisten Fällen aber nutzlos.

Meta Geo Tag (Matt Cutts): Dieser Tag wird höchstens genutzt, wenn eine gTLD verwendet wird.

Qualität der Kommentare (Spekulation): Es gibt in diesem Zusammenhang keine stichhaltigen Beweise, dass solch nutzergenerierte Inhalte für das Ranking in Betracht gezogen werden.

 

6. Mythos – Keine Ranking-Faktoren 

Meta Keywords (Matt Cutts, Experiment Page): Google nutzt diese nicht mehr – es ist jedoch möglich, dass andere Suchmaschinen es noch tun.

Google Analytics (Matt Cutts): Dies ist ein hilfreiches Tool, hilft aber nicht beim Ranken.

Google Search Console (Spekulation): Auch dieses Tool hilft viel, aber es gibt keine verbrieften Ranking-Vorteile durch die Nutzung – jedenfalls keine direkten.

XML Sitemaps (Susan Moskwa & Trevor Foucher): Diese helfen bei der Indexierung, aber nicht beim Ranken.

Autorenreputation (John Mueller): Die Autorenschaft wird seit 2014 nicht mehr genutzt.

rel=”author” (John Mueller): Dies wurde zusammen mit der Autorenschaft ad acta gelegt.

rel=”publisher” (John Mueller): Dies wurde ebenfalls zusammen mit der Autorenschaft beendet.

URL mit www. Subdomain (Spekulation): Es bringt keinen Vorteil gegenüber einer URL ohne www. mit sich.

Dedicated IP (Matt Cutts): Können beim Targeting helfen, bringen aber keinen Ranking-Boost.

AdSense (Matt Cutts): Es gibt absolut keine Belege dafür, dass dies einen Ranking-Boost verschafft.

Keywords in HTML Kommentaren (Experiment Page): Experimente zeigen, dass diese nicht gerankt werden.

Keywords in CSS / JavaScript Kommentaren (Experiment Page): Auch hier belegen Experimente, dass dieses Vorgehen nichts bringt.

Keywords in CLASSes, NAMEs und IDs (Experiment Page): Auch diese Theorie wird durch das Experiment als falsch entlarvt.

Positive Meinungen in den Kommentaren (Amit Singhal, Patent US 7987188 B2): Dies kann nicht zum Ranking genutzt werden, da es Manipulationen zu einfach machen würde.

Negative Onpage-Faktoren

1. Sichere Ranking-Faktoren

Inhalt in der Farbe wie der Hintergrund (Google): Den Inhalt durch farbliche Formatierung für den Nutzer unsichtbar zu machen gilt als Cloaking und wird entsprechend bestraft.

1-Pixel-Bildlinks (Google): Solche versteckten Links werden von Google meist erkannt und bestraft.

Leere Link-Ankertexte (Google): Auch dies gilt als Cloaking und führt zu Penalties.

Copyright-Verstöße (Google): Wer gegen geltendes Urheberrecht verstößt, muss mit entsprechenden Konsequenzen rechnen.

Doorway Pages (Google): Landing Pages für die Suchmaschine, durch die der Nutzer direkt hindurchgeführt wird. Gelten als Spam und werden mit Penalties belegt.

Kaputte interne Links (Patent US 20080097977 A1, Google via SEL): Diese Erschweren die Arbeit der Suchmaschinen und zeigen mangelnde Qualitätskontrolle.

Redirected interne Links (Patent US 6285999 B1, Matt Cutts via SER): Diese können einen Fallstrick darstellen, der zu einer schlechteren Bewertung der Seite führt.

Text in Bildern (Matt Cutts): Texte, die in Bildern stehen, können von Google nicht gecrawlt werden und sind damit für den Index verloren.

Text in Videos (Matt Cutts): Gleiches gilt für Texte in Videos.

Texte in Rich Media (Matt Cutts): Gleiches gilt für Texte in anderen Medienformen wie Flash.

Frames / Iframes (Google): Zwar können Suchmaschinen Inhalte in Frames mittlerweile verstehen, diese sind aber noch immer eine Hürde beim Crawlen.

Schwache Inhalte (Google, DaniWeb Study): Schlechte Inhalte werden durch den Panda abgewertet und bestraft.

Schwache Inhalte auf der ganzen Domain (Google): Durch den Panda wird die Qualität der ganzen Domain getestet. Diese sollte daher hoch sein.

Zu viele Werbeanzeigen (Google): Zu viele Anzeigen führen zu einer schlechten Nutzererfahrung.

Externer Duplicate Content (Google): Auch bei Beachtung des Copyrights kann dies zu Abstrafungen führen.

Interner Duplicate Content (Google): Verschlechtert den Wert des Inhalts.

Links zu abgestraften Seiten (MC: Bad Neighbors, MC: Nofollow): Dies wird als schlechte Nachbarschaft bezeichnet und führt zu einem Vertrauensverlust bei Google.

Eine langsame Seite (Google): Der Pagespeed ist ein wichtiges Kriterium – daher ranken langsame Seiten nicht so gut wie schnelle.

Seiten-Noindex (Logik): Wenn eine Seite auf Noindex steht, kann sie nicht ranken.

Disallow Robots (Google): Steht hinter Disalllow in der robots.txt entweder * oder Googlebot, so kann die Seite nicht gecrawlt werden.

Schlechte Domain-Reputation (Matt Cutts): Die Geschichte einer Domain – und damit auch eventuelle Abstrafungen – bleiben auch bei einem Themen- oder Besitzerwechsel erhalten.

Meta / JavaScript Redirects (Google): Diese verwirren die Nutzer und werden daher mit Penalties belegt.

Text in JavaScript (Matt Cutts): Dieser kann nicht exakt ausgelesen werden und schadet daher den Ranking-Möglichkeiten.

Schlechte Uptime (Matt Cutts): Wenn eine Seite oft down ist, kann Google sie nicht erreichen und sieht es als Zeichen der Unzuverlässigkeit.

Zu viele externe Links (Matt Cutts): Dies wird als wenig zielführend angesehen und daher abgestraft.

Seiten mit Suchergebnissen (Matt Cutts): Google will, dass die Nutzer Inhalte direkt finden – und nicht noch weiter klicken müssen.

Automatisch generierte Inhalte (Matt Cutts, Webmaster Guidelines): Dies verstößt gegen die Google Webmaster Richtlinien.

Phishing (Matt Cutts): Aus gewissen Gründen könnte Google eine Seite als Phishing ansehen und daher bestrafen.

Orphan-Seiten (Google Webmaster Central): Solche Seiten sind mit Hilfe der internen Links schwer bis gar nicht zu finden und werden daher unter Umständen als Doorway Pages angesehen.

HTTP Status Code 4XX/5XX auf der Seite (Spekulation): In diesen Fällen werden die gewünschten Inhalte nicht angezeigt.

 

2. Wahrscheinliche Ranking-Faktoren

Hohe Keyword-Dichte im Text (Matt Cutts, Remix): Keyword-Stuffing war mal effektiv, führt heute aber zu Abstrafungen.

Zu geringe Keyword-Dichte (Matt Cutts): Zu viel ist schlecht, zu wenig aber auch. Kann auch als Themenverdünnung bezeichnet werden – es wird also nicht eindeutig klar, worum es geht.

Keyword-Dichte im Title Tag (Matt Cutts): Auch im Titel Tag müssen sinnvolle Inhalte präsentiert werden – und das bei etwa 60 Zeichen. Kein Platz also für Keyword-Stuffing.

Viel zu langer Title Tag (Matt Cutts): Sie sollten etwa 70 Zeichen nicht überschreiten, um dem Nutzer einen klaren Mehrwert zu bieten.

Keyword-Dichte in den Überschriften (Matt Cutts): Auch hier sollte nicht gespammt werden, da die Algorithmen dies erkennen und bestrafen.

Zu viele Überschriften (Matt Cutts): Wenn beispielsweise alles unter H1 Überschriften steht, wandelt sich der eigentlich positive Ranking-Faktor zum Negativen.

Viel zu lange URLs (Matt Cutts): Etwa ab dem 5. Wort schwindet die Relevanz dessen, was in der URL steht.

Keyword-Dichte in Alt-Attributen (Matt Cutts): Dies wurde weit verbreitet genutzt und kann daher zu Penalties führen.

Viel zu lange Alt-Attribute (Matt Cutts): Das genannte Keyword-Stuffing kann hier zu Penalties führen.

Zu viele Listentexte (Matt Cutts): Ein Schreibstil, bei dem nur viele Keywords in Aufzählungen abgehandelt werden, führt nicht zu guten Bewertungen durch Google.

Versteckte Inhalte hinter CSS (Google): Keywords, die für den Nutzer unsichtbar und auf Google ausgerichtet sind, führen zu Abstrafungen.

Interne Nofollow (Matt Cutts): Die eigenen internen Links sollten immer auf Follow stehen, um den Pagerank entsprechend zu verteilen.

Zu viele interne Links (Matt (blog), Matt (video)): Um ein sinnvolles Linkprofil zu haben, müssen die Links Sinn machen und nicht spammig wirken.

Geparkte Domain (Google): Eine Domain, die noch keine Webseite beherbergt, sondern nur Werbung.

Zu viele Links im Footer (Matt Cutts): Diese sind schwächer als Links im Text und wurden oft missbraucht, daher können sie Probleme nach sich ziehen.

Überholte Inhalte (Patent US 20080097977 A1): Alte Inhalte können für gewisse Suchanfragen überholt sein – und daher im Ranking herabgestuft werden.

Verkaufte Links (Matt Cutts): Der Verkauf von Links, die Page Rank weitergeben, führt zum Verlust von Page Rank.

Spam in nutzergenerierten Inhalten (Matt Cutts): Dies kann zu sehr zielgenauen Abstrafungen führen, die sich oft nur auf einzelne Unterseiten beziehen.

Automatisch übersetzte Texte (Matt Cutts): Inhalte mit Google Translate oder ähnlichen Diensten zu internationalisieren ist unprofessionell und spricht nicht für hohe Qualität.

 

3. Mögliche Ranking-Faktoren

Keyword-Wiederholung in der URL (Spekulation): Es gibt keine Vorteile dadurch, das Keyword in der URL zu wiederholen – bevor dies also als negativ gesehen wird, sollte man es gleich lassen.

Lange interne Link-Ankertexte (Spekulation): Dies bringt keine Vorteile, kann aber zu Webspam-Penalties führen.

Zu viele Schriftformatierungen (Matt Cutts): Wer zu viel Fettdruck, Kursivschrift und ähnliches benutzt, tut dem Nutzer keinen Gefallen.

Dynamische Inhalte (Matt Cutts): Solche Inhalte stellen Suchmaschinenspider vor große Probleme beim Verstehen und Ranken der Inhalte.

Pup-Ups (Google): Diese können die Nutzererfahrung verschlechtern.

Schlechte Nachbarschaft der IP Adresse (Matt Cutts): Dies kann in gewissen Fällen zu einem Penalty führen.

ccTLD bei internationalen Suchen (Google): Diese TLDs sind auf ein bestimmtes Land zugeschnitten, werden also in anderen Ländern nicht so gut performen.

Schlechte HTML/CSS (Matt Cutts): Obwohl dies oft verneint wurde, könnte schlechter Code ein negativer Faktor sein.

Outbound Affiliate Links (Google, Affiliate Marketer’s Study): Wenn Affiliate-Seiten keinen Mehrwert bieten, mag Google sie nicht. Zu viele solcher Links können also schädlich sein.

Infizierte Seite (Webmaster Guidelines): Eine solche Seite tut negative Dinge im Namen des Besitzers und dieser wird dafür (schuldlos) bestraft.

Sexuelle Inhalte (Google Safe Search): Der Safe Search Filter filtert solche Inhalte heraus und verhindert, dass diese ranken.

Soft-Fehlerseiten (Google): Diese führen dazu, dass Google die entsprechenden Seiten nicht richtig verarbeiten kann.

Nicht passende Fremdsprachen (Matt Cutts): Wenn die Sprache nicht mit der Zielgruppe übereinstimmt, kann es nicht zu positiven Signalen führen.

 

4. Mutmaßliche Ranking-Faktoren

Viele Links in wenig Text (Spekulaton): Hier leidet die Qualität des Inhaltes, was unter Umständen zu Nachteilen führen könnte.

Versteckte Inhalte hinter JavaScript (Google): Dies kann als Cloaking ausgelegt werden und entsprechende Abstrafungen nach sich ziehen.

Private Whois (Matt Cutts): Wie oben gesagt hätte Google dies gerne öffentlich.

Subdomains (Matt McGee and Paul Edmondson): Hat eine Seite viele Subdomains, kann es zu Problemen führen.

Anzahl der Subdomains (Spekulation): Zu viele Subdomains können Google unter Umständen dazu bringen, die Seiten anders zu behandeln als geplant.

Domain-weite Anzahl an Fehlerseiten (Spekulation): Gibt es zu viele Fehlerseiten, so leiden die Nutzererfahrung und die Qualität der Seite.

Code-Fehler auf der Seite (Spekulation): Die Nutzererfahrung ist schlecht, wenn viele Seiten Code-Fehler ausgeben – zudem leidet Google’s Arbeitsprozess.

HTTP Expires Header (Moz Discussion): Dies kann helfen, kann aber auch zu Problemen beim Indexieren führen.

Sitemap Priorität (Sitemaps.org): Dies führt eher zu einer Abwertung von weniger wichtigen Inhalten als zu einer Aufwertung der wichtigen.

Sitemap Change Freq (Sitemaps.org): Dies soll anzeigen, wie oft Inhalte geändert werden – es ist aber unklar, wie sehr Google darauf achtet.

Keyword-Stuffing in Meta Descriptions (Spekulation): Diese könnten für Webspam genutzt werden, aber Google verneint, dass sie außerhalb von Werbeanzeigen genutzt werden.

Keyword-Stuffing in Meta Keywords (Matt Cutts): Google nutzt diesen Tag nicht mehr, er wird aber noch immer von vielen Seitenbetreibern falsch eingesetzt.

 

5. Zweifelhafte Ranking-Faktoren

Falsche Whois (Matt Cutts): Führt nicht unbedingt zu Abstrafungen, kann aber rechtliche Probleme nach sich ziehen.

Besitzer mit Penalties (Spekulation): Es ist möglich, dass Google misstrauisch reagiert, wenn ein bereits abgestrafter Besitzer eine neue Seite startet.

 

6. Mythos – Keine Ranking-Faktoren 

Ausgehende Links (Matt Cutts, Nicole V. Beard): Wenn die Links gut und echt (und nicht zu zahlreich) sind, sind sie eher ein positiver Faktor.

Fehlende robots.txt (John Mueller via SER): Es ist empfehlenswert, eine robots.txt zu haben – das Fehlen führt aber nicht zu Abstrafungen.

 

Positive Offpage-Faktoren

1. Sichere Ranking-Faktoren

Autoritative eingehende Links zur Unterseite (Larry Page): Eingehende Links von Seiten, die selbst ein starkes Linkprofil haben, sind am wertvollsten.

Mehr eingehende Links zur Unterseite (Larry Page): Me mehr gute Links auf eine Seite verweisen, desto besser.

Autoritative eingehende Links zur Domain (Larry Page): Page Rank wird gesammelt und dann über die Domain weiter verteilt.

Mehr eingehende Links zur Domain (Larry Page): Mehr gute Links sind immer erstrebenswert.

Linkstabilität (Patent US 8549014 B2): Desto langlebiger ein Link ist, desto stärker wird er.

Keyword im Anker-Text (Patent US 8738643 B1): Ist das Keyword im Anker-Text, stärkt dies die Autorität der Seite im Hinblick auf dieses Keyword.

Links von relevanten Seiten (Krishna Bharat): Links sollten, zumindest zum Teil, von themengleichen Seiten stammen.

Keyword im Alt-Attribut (Patent US 8738643 B1, Matt Cutts): Dies gilt als Anker-Text und stärkt die Relevanz.

Inhalte um den Link herum (Patent US 8577893, SEO By The Sea): Links, die in sinnvollem Kontext stehen, gelten als stärker.

Suchanfragen brauchen Neuigkeiten (Matt Cutts, Amit Singhal): Manche Suchbegriffe brauchen frische Inhalte – Query Deserves Freshness.

Safe Search (Google): Bei gewissen Suchanfragen kommt es darauf an, ob die Safe Search aktiviert ist – diese könnte einige Inhalte blockieren.

 

2. Wahrscheinliche Ranking-Faktoren

Teilweise ähnliche Anker-Texte (Patent US 8738643 B1): Nicht alle Seiten können dieselben Anker-Texte verwenden. Aber oft werden sie ähnlich sein.

Teilweise ähnliche Alt-Attribute (Patent US 8738643 B1): Auch Texte im Alt-Attribut können ein gewisses Gewicht mit sich bringen, wenn es um Relevanz geht.

Links von einer bereits rankenden Seite (Patent US 6526440 B1): Erhält eine Seite einen Link von einer Seite, die für das entsprechende Thema bereits gut rankt, zu wirkt sich dies positiv aus.

DMOZ Nennung (Matt Cutts): Von allen Verzeichnissen kann DMOZ den größten Einfluss haben.

 

3. Mögliche Ranking-Faktoren

CTR auf der Unterseite (Moz Study, Patent US 9031929 B1): Es hat den Anschein, als sei die Click-Through-Rate ein Rankinjg-Faktor.

Positive Linkgeschwindigkeit (Patent US 8521749 B2): Die Stärke eines Dokuments kann analysiert werden, indem das Verhältnis zwischen neuen und verschwindenden Links einbezogen wird.

Google+ Profil (Dr. Pete’s Study): Dies ist eher ein indirekter Faktor, kann die Rankings aber positiv beeinflussen.

Quellenangaben (Barry Schwartz): Manche Suchanfragen benötigen zur sinnvollen Beantwortung Quellen – Query Deserves Sources.

Suchanfragen brauchen Langfristigkeit (Barry Schwartz): Manche Suchanfragen können am besten durch alte Beiträge beantwortet werden – Query Deserves Oldness.

Vielfalt (Rand Fishkin): Manche Suchanfragen haben mehrere Bedeutungen, oder mehrere Antworten können richtig sein – Query Deserves Diversity.

Nutzer-Suchhistorie (Brian Horling): Durch die Personalisierung der Suchergebnisse ist dies ein realistischer Faktor.

Markensuche (Patent US 9031929 B1): Es ist möglich, dass genaue Suchen nach einer Marke den Wert der Seitenqualität anheben.

Hohe Verweildauer (Patent US 9031929 B1, Bill Slawski): Wenn sich Nutzer für längere Zeit aktiv auf einer Seite aufhalten, so wird dies positiv bewertet.

Internationales Targeting Tool (Google): Es kann unter bestimmten Voraussetzungen helfen.

Reconsideration request (Google): Damit kann man Manual Actions verlassen und wieder ranken.

Links von ccTLDs im Zielland (Google): Dies macht die Seite im entsprechenden Land relevanter – allerdings nur da.

Links von IP Adressen in der Zielregion (Matt Cutts): Dies zeigt, dass man nahe am Geschehen ist und kann sich positiv auswirken.

 

4. Mutmaßliche Ranking-Faktoren

Social Signals (Matt Cutts, Moz Study): Stärkt die Reputation und ggf. den Traffic, ist aber kein direktes Signal.

CTR auf der Domain (Patent US 9031929 B1): Auf Grundlage des Site Quality Scores ist der CTR möglicherweise ein Faktor.

Niedrige Absprungrate (Matt Cutts via SER, SEO Black Hat Study, Rand Fishkin Study): Auch wenn Google es mehrfach verneinte, so legen Studien nahe, dass die Absprungrate für das Ranking genutzt wird.

Deep Links (Larry Page): Direkte Links sind besser als indirekte.

Twitter-Sharing (Matt Cutts, Danny Sullivan): Social Signals haben nur einen indirekten Einfluss auf die Rankings. Sie verstärken jedoch die Interaktion mit einer Seite.

Facebook-Sharing (Matt Cutts, Danny Sullivan): Gleiches gilt für Shares bei Facebook.

Links von älteren Domains (SEO by the Sea): Bing sieht Links von älteren Domains als stärker an – vielleicht auch Google.

Chrome Bookmarks (Matt Cutts via SER, BrightonSEO Fireside, Patent US 20070088693): Auch wenn es von Google verneint wurde, so gibt es die Möglichkeit, durch Auslesen der Chrome Bookmarks die Relevanz einer Seite zu analysieren.

Chrome Traffic (Patent US 20070088693, Lifehacker Analysis): Die Bewertung eines Dokuments könnte theoretisch auch vom Chrome Traffic abhängen.

Google Toolbar Aktivität (Matt Cutts via SER, Patent US 20070088693): Die Möglichkeit, diese Werte zu nutzen, besteht – und viele SEOs berichten, dass dies auch geschieht.

 

5. Zweifelhafte Ranking-Faktoren

Links von vielen “Class C” IPs (Krishna Bharat): Manche Seiten können aufgrund ihrer IP als zusammengehörend eingestuft werden.

Twitter-Follower (Matt Cutts): Laut Google ist dies, wie alle Social Signals, kein direkter Ranking-Faktor.

Facebook-Likes (Matt Cutts): Gleiches gilt für Likes bei Facebook.

Google+ Kreise (Google): Gleiches gilt heutzutage für die Kreise in Google+.

Google+ “+1” (Moz correlation study, Matt Cutts via SER): Auch mit den +1s kann keine Korrelation festgestellt werden.

Sitemap einreichen (Rand Fishkin): Dies führt manchmal zu mehr rankenden Seiten – diese ranken aber oft nicht gut.

Google Local verifizierte Adresse (Spekulation): Dies ist wichtig für Maps, allerdings eher nicht für die organische Suche.

 

6. Mythos – Keine Ranking-Faktoren 

Keyword im Link Title (Ann Smarty via SEJ): Dieses Attribut wird selten genutzt und daher von Google nicht berücksichtigt.

Nennung von Markennamen (Moz Study): Dies ist sinnvoll für die lokale Suche, aber nicht für die allgemeine organische Suche.

Links von .EDU (Matt Cutts): Links von .EDU haben nicht mehr Wert als andere.

Links von .GOV (Matt Cutts): Gleiches gilt für Links von Regierungsseiten.

Nutzung von AdWords (Matt Cutts): Auch wenn viele SEOs es nicht glauben, ist die Nutzung von AdWords kein Ranking-Faktor.

Nicht-Nutzung von AdWords (Matt Cutts): Auch die Nicht-Nutzung von AdWords hat keinen Einfluss auf das Ranking.

Niedriger Alexa Wert (Patent US 20070088693): Es gibt keine Anhaltspunkte, dass diese Daten genutzt werden.

Hoher MozRank / Trust Wert (Spekulation): Es ist nicht davon auszugehen, dass Google die Metriken von Drittanbietern für seine Rankings nutzt.

Die Seite zu Google einreichen (Google): Dies führt nur zum Crawlen, aber nicht zum besser ranken.

 

 

Negative Offpage-Faktoren

1. Sichere Ranking-Faktoren

Exzessives seitenübergreifendes Verlinken (Matt Cutts): Wenn man verschiedene Seiten besitzt, sollten diese nicht (mehrfach) verlinkt werden, nur um mehr Zugriffe zu erhalten. Eine Ausnahme ist, wenn es für den Nutzer einen guten Grund zur Verlinkung gibt.

Negatives SEO – Google Bowling (Matt Cutts): Wenn auf die eigene Webseite viele bösartige Links verweisen – Linkspam – dann kann dies zur Abwertung der Seite führen.

Bezahlte Links (Google, Matt Cutts): Wenn man für das Setzen der Links bezahlt oder eine Gegenleistung bietet, führt dies zur Rankingverschlechterung.

Geringer Seiteneinfluss (Matt Cutts, Larry Page): Jeder Link auf der Seite hat einen bestimmten Einfluss. Je mehr Links auf der Seite vorhanden sind, desto geringer wird dieser.

Geringer Domaineinfluss (Matt Cutts, Larry Page): Domains, die viele verschiedene Seiten verlinken, geben einen geringeren Einfluss weiter, als diese, die die Seiten genau auswählen.

Manuelle Schritte (Matt Cutts): Google wird trotz aller anderen Ranking-Faktoren auch noch manuelle Schritte gegen bestimmte Seiten einleiten. Diese Strafen werden oft in Google Search Console angekündigt.

Anpassung der Crawl-Rate (Google): In Google Search Console kann eingestellt werden, wie häufig die Seite gecrawlt werden soll. Wenn die Rate auf Null heruntergefahren wird, kann das zu Problemen mit der Indexierung führen.

 

2. Wahrscheinliche Ranking-Faktoren

Frischer Anker-Text (Patent US 8549014 B2): Das Alter des Anker-Textes, der in einem Link verwendet wird, kann Probleme verursachen. Das kann auf Linkmanipulation hinweisen.

Unnatürliches Verhältnis von Anker-Texten (Penguin 1.0 Announcement, Moz Study): Wenn ein und derselbe Anker-Text häufig genutzt wird, kann dies zur Entwertung führen. Viele gleiche Texte können auf eine Manipulation hindeuten.

Advertorials (Werbung)(Matt Cutts): Wenn Werbung in Form von readaktionellen Beiträgen veröffentlicht wird, kann es passieren, dass ein bezahlter Link vermutet wird. Daher sollte der Link auf “nofollow” gesetzt werden.

Footer Links (Matt Cutts): Links, die im Footer stehen, haben nicht das gleiche Gewicht wie Links aus dem Text heraus. Daher sollten nicht zu viele genutzt werden.

Link Wheel – Pyramide / Tetraeder (Matt Cutts via ClickZ): Die Nutzung von Link-Rädern und Pyramiden kann zur Abstafung führen.

Gegenseitige Verlinkung (Matt Cutts): Wenn zu viele Links von Seiten stammen, auf die ebenfalls verlinkt wird, kann man davon ausgehen, dass die Verlinkungen nicht rechtmäßig verdient wurden.

Private Netzwerke (Linkfarmen) (Matt Cutts via ClickZ): Die eigene Seite kann abgestraft werden, wenn man in ein Netzverk involviert ist, dass von SEOs nur zum Aufbau und Austausch von Links genutzt wird. Google geht agressiv gegen diese Seiten vor.

Schlechter Content um den Link herum (Patent US 8577893, SEO by the Sea): Um einen Link zu beurteilen, bezieht Google den Content, der sich in der Umgebung des Links befindet, mit ein.

Rapider Verlust von Links (Patent US 8521749 B2): Genau wie der zu schnelle Aufbau von Links kann auch der zu schnelle Abbau von Links Probleme mit sich bringen.

Sidewide Links (Matt Cutts): Links, die auf allen Unterseiten vorkommen, sind an sich harmlos. Aber sie können als Webspam gedeutet werden und werden dann manuell von Google geprüft.

Disavowed Links (John Mueller via SER): Links, die komplett ignoriert werden, können einen großen Schaden verursachen, wenn die Funktion nicht korrekt genutzt wird. Deshalb sollte diese Methode nur als letzter Ausweg genutzt werden.

Report illegaler Aktivitäten (Google): Wenn über illegale Aktivitäten berichtet wird, werden die Inhalte aus allen Produkten von Google, auch der Google Suche, entfernt.

DMCA – Report (Search Console, DMCA Process): Neben den automatischen Kontrollen zum Auffinden von gestohlenem Content können auch DMCA – Anfragen von Nutzern gesendet werden. Die betroffenen Seiten werden dann von Google gelöscht.

 

3. Mögliche Ranking-Faktoren

Unnatürliches Verhältnis von Anker-Typen (Speculative): Wenn zu viele Verlinkungen einer Art genutzt werden, kann dies auf eine Manipulation hindeuten. Es sollte ein natürliches Verhältnis zwischen URLs, Text-Ankern und Bannern geben.

Webspam Footprints (Matt Cutts via SEL): Der virtuelle Fußabdruck ermöglicht es Google, alles zu identifizieren, das von einer gemeinsamen Quelle stammt. Sehr viel Webspam kann zu einer Abstrafung führen.

Spam in Kommentaren (Matt Cutts): Kommentare im Blog, in denen ein Muster für Spam erkennbar ist, können ebenfalls zum Verlust des Rankings führen.

Spam in Forenbeiträgen (John Mueller via SER): Genau wie Blogkommentare können sich auch Forenbeiträge, in denen ein Spammuster erkennbar ist, negativ auswirken.

Foren Signatur und Profil Links (Google): Verlinkungen in der Signatur von Forenaccounts und in Profilen können zu Problemen führen.

Header- und Sidebarlinks (Patent US 8041713 B2): Links, die in der Sidebar oder im Header platziert sind, können ein Grund für einen Rankingverlust sein.

Gesponsorte WordPress Themes (Matt Cutts): Auch WordPress Themes, in denen Backlinks eingefügt sind, können von Google als Spam gedeutet werden.

Links in Widgets (Google): Verlinkungen in Widgets sollten laut Google mit “nofollow” versehen werden und ohne Anker-Text platziert werden.

Links in der Biografie des Autors (Matt Cutts): Auch Links, die sich in der Biografie des Autors des Beitrags befinden, können von Google negativ gewertet werden.

Artikelverzeichnisse (Matt Cutts): Obwohl Google mit Panda und Pinguin schlechten Content auf der gesamten Domain abgewertet hat, sind ihnen die Artikelverzeichnisse noch immer ein Dorn im Auge.

Generierte Web-Verzeichnisse (Matt Cutts via ClickZ): Listen, auf denen nur ausgewählte Seiten verlinkt werden, können genutzt werden. Bei Verzeichnissen, die jeden Link annehmen, sollte man jedoch vorsichtig sein.

Google Dance (Danny Sullivan): Die Veränderung des Google Algorithmus kann positive oder negative Auswirkungen haben. Diese sind nicht vorhersehbar.

Kein linkumgebender Content (Patent US 8577893): Wenn der Link von keinem Inhalt umgeben wird, wird er häufig als unnatürlich angesehen.

Irrelevanter linkumgebender Content (Patent US 8577893): Wenn der Text um den Link herum nicht zum Thema der verlinkten Webseite passt, wird dies als negativ angesehen.

Rapider Gewinn von Links (Patent US 8521749 B2): Wenn die Anzahl an Links sprunghaft zunimmt, kann dies zu Problemen führen, weil Google von einer Manipulation der Links ausgehen könnte.

Negative Verlinkungsgeschwindigkeit (Patent US 8521749 B2): Aufgrund der Schnelligkeit, in der eine Seite an Links gewinnt oder verliert, kann ein Rückschluss darauf gezogen werden, wie neu sie ist.

Strafe durch Umleitung (John Mueller via SER): Eine Strafe kann auch über eine mit 301 umgeleitete Seite weitergegeben werden.

Von Chrome blockierte Seiten (Amay Champaneria): Seiten, die von Nutzern auf dem Browser Chrome blockiert werden, könnten in der Suche von Google schlechter ranken.

Negative Stimmung (Amit Singhal, Patent US 7987188 B2): Die Stimmung, die über eine Marke herrscht, kann ebenfalls einen Einfluss auf das Ranking haben.

Klick-Manipulation (Rand Fishkin): Die Manipulation von Klicks auf die Seite in den Suchergebnissen kann negative Auswirkungen haben.

Niedrige Verweildauer (Short Click)(Patent US 9031929 B1, Steven Levy (In The Plex), Bill Slawski): Eine kurze Verweildauer auf der Seite kann dazu führen, dass sie schlechter bewertet wird.

Links von der gleichen IP (Class C)(Krishna Bharat): Wenn Links von, wahrscheinlich, derselben IP-Adresse gesetzt werden, führt das möglicherweise zur Abwertung.

 

4. Mutmaßliche Ranking-Faktoren

Verhältnis von Links außerhalb des Kontextes (Patent US 8577893): Man geht davon aus, dass zu viele Links, die außerhalb des Textes platziert sind, auf Spam hindeuten.

Negative Domainlinkgeschwindigkeit (Patent US 8521749 B2): Wenn die Seite mehr Links verliert, als sie in der gleichen Zeit wieder dazu gewinnt, kann dies auf ein Problem hindeuten.

Internationales Handelstool (Google): Das Tool kann zu einer Abwertung führen, wenn es nicht korrekt eingesetzt wird und die Seite in einer falschen Region angezeigt wird.

Manipulation der Markensuche (Patent US 9031929 B1): Wenn zu häufig nach der Marke gesucht wird, kann das für Google auf eine Manipulation hindeuten.

Große Zeitspanne bis zum Abschluss (David Mease): Genau wie die zu kurze Zeitspanne auf einer einer Seite kann auch die zu lange Zeit, bis eine “Aufgabe” abgeschlossen wird, als negativ gewertet werden.

 

5. Zweifelhafte Ranking-Faktoren

Eingehende Affiliate Links (Matt Cutts, Speculation): Affiliate Links, die auf der Seite ankommen, sollten als Nofollow gekennzeichnet werden, da die Seite sonst abgewertet werden könnte.

Links von irrelevanten Seiten (Analyzing link profiles of popular sites): Links, die von Seiten stammten, die nicht für das Thema relevant sind, können als Manipulation gewertet werden.

 

6. Mythos – Keine Ranking-Faktoren 

Linkaufbau (Matt Cutts via SEL): Ein Mythos besagt, dass sich der Aufbau von Links negativ auswirken könnte. Dies ist nicht bestätigt. Jedoch sollten die Links in erster Linie für die Nutzer aufgebaut werden und nicht für Suchmaschinen.

Links aufbauen lassen (Matt Cutts): Wenn andere Personen für den Aufbau von Links bezahlt werden, gilt dies nicht als Linkkauf. Daher ist auch dieser Faktor nur ein Mythos.

Kein editorial Kontext (Julie Joyce): Wenn Links sich nicht in der Mitte des Artikels oder der Geschichte befinden, sollen sie angeblich schlechter gewertet werden. Dies ist nicht belegt.

Microseiten (Matt Cutts): Seiten, die besonders wenig Unterseiten besitzen, sollen angeblich mit einer Strafe belegt worden sein. Matt Cutts verneinte das und stellte klar, dass diese Seiten von sich aus einfach nicht besonders effektiv seien.

Werbung

TEILEN
Nach meinem Studium der Politikwissenschaften (Schwerpunkt Diplomatie) habe ich mich im April 2015 der imwebsein GmbH angeschlossen. Im Bereich Online-Marketing war ich zuvor für einige politische und sportliche Organisationen tätig - und unterstütze einige von ihnen immer noch im Ehrenamt. Ich freue mich auf einen regen Austausch, vor allem auf unserem neuen SEO-Portal!

27 KOMMENTARE

  1. Herzlichen Dank für dieses Mammut-Werk. Als SEO kennt man ja vieles davon, aber die Gewichtung und die Sache mit den US-Patenten war mal interessant. Das sollte ich mal (Webdesign-)Kunden zum Lesen geben, die immer noch davon ausgehen, SEO könne der Designer doch gleich so nebenbei mit erledigen! Also danke dafür.

    • Herzlichen Dank. Ja es ist die umfangreichste Übersicht dieser Art, auch wenn man vielleicht über den einen oder anderen Punkt eine andere oder abweichende Auffassung haben kann, ist die Herleitung der Ideen insbesondere der Quellen Nennung in dieser Form einmalig. Daher auch der Grund wieso wir uns das angenommen haben.

  2. Herzlichen Dank Oliver Engelbrecht für die Übersetzung der Google Ranking-Faktoren. Die Lektüre hat mir den Samstagmorgen versüßt. Es waren sogar ein paar Punkte darunter, die ich noch nicht kannte und vieles was gut tat, aufzufrischen oder in Erinnerung zu rufen.
    Wichtig wäre für mich der Punkt gewesen (da aktuell), wie sich das Google Ranking bei Qualitätsinhalten auswirken kann, die auf einer Subdomain bzw. in einem Subfolder liegen.

    Herzlichen Dank, ich werde den Beitrag auf Google Plus teilen.

    Viele Grüße aus Berlin

    Christian Geng

    • Hallo Christian, da wird sich Oli über das Lob freuen, es aber auch an die anderen weitergeben müssen die drann gesessen haben 🙂 Zu deiner Frage.

      Die Merkmale sind ja nicht anders nur weil sie auf ner Sub liegen. Es kommt eben darauf an ob Google die der hauptdomain zurechnet oder als eigenständige Domain ansieht. Siehe Johns Aussage bezüglich Aufteilung von Sprachen auf Subdomains.

  3. Hallo, ein dickes Dankeschön für diese grandiose Arbeit. Und es sind doch einige überraschende Gewichtungen dabei!
    Viele Grüße,
    Mirjam

  4. Danke für die Übersetzungs-Arbeit, habe den Artikel gleich geteilt.
    Aus eigener Erfahrung mit meinen Wikis kann ich bestätigen, dass “Frische Inhalte” sehr ranking-fördernd sind.
    Interessant dass sich rel=”author” und rel=”publisher” nicht durchgesetzt haben und somit keine Ranking-Faktoren mehr sind – das war mir neu.

  5. sensationeller Beitrag, vielen Dank dafür. Werde diese Faktoren zum Anlass nehmen, um meine Seite auf Herz und Nieren zu prüfen. Dann klappt das hoffentlich mit dem Ranking!

  6. Klasse, eine bessere Zusammenfassung habe ich bis jetzt noch nicht gesehen. Obwohl hier viel Text zu finden ist, lässt es sich gut lesen – ohne das es langweilig wird.

    • Hallo Alexander,
      vielen Dank für das Lob. Unter Mögliche Positive Onpage-Faktoren findest du, was du suchst:

      “Länge Registrierungszeiten einer Domain (Patent US 7346839 B2): Ist eine Domain für einen längeren Zeitraum registriert, so zeugt dies von höherer Seriosität und Nachhaltigkeit.”

      “Eine neue Domain (Patent US 7346839 B2, Matt Cutts): Eine neue Seite wird als sehr aktuell angesehen und bekommt daher oft temporär einen kleineren Ranking-Boost.”

      “Eine alte Domain (Matt Cutts): Alte Domains erhalten oft mehr Vertrauen von Google – dies ist jedoch ein sehr kleiner Faktor.”

  7. Gute und nützliche Übersetzung, vielen Dank. Oft wird schnell das Wort “könnten” übersehen, dass Du oben am Anfang zu Recht verwendet hast. Was die Verfasser des Originalpapers vielleicht etwas überbetonen sind Patente. Nur weil etwas in einem Patent beschrieben wird, bedeutet das noch lange nicht, dass ein Unternehmen das auch einsetzt bzw. noch einsetzt, wenn es sich im Praxisbetrieb doch nicht bewährt hat. Insofern wäre ich mit der Bezeichnung “gesicherte Erkenntnisse” etwas vorsichtig. Z.B https. Hier hat bisher meines Wissens nach niemand gesichert (!) nachgewiesen, dass ein Einfluss da wäre. Meiste werden bei der Umstellung auch Strukturen und Weiterleitungen verändert, was IMMER Auswirkungen hat. Dann wird gepostet “Heureka!” und alle glauben unbesehen, dass man auf https umstellen muss. Google will das Netz sicherer haben, daher schüren die das Feuer und es ist auch gut, wenn man irgendwann umstellt. Aber als Rankingfaktor hab ich meine berechtigten Zweifel. Anderes Argument: Bei nicht umgestellten Seiten ist das Ranking in der Regel beobachtbar stabil geblieben. Da hätte es überall aber einen kleinen downlift geben müssen. Was ich damit sagen will ist, man muss wach bleiben beim Lesen und nicht alles glauben, nur weil

  8. Und jetzt bitte noch als pd-Dokument zum Download 🙂 Ne, im Ernst, danke für die Bereitstellung dieser sensationellen Aufstellung. Eine Sache ist mir nur aufgefallen… H1 wichtiger als H2 steht irgendwo, da meine ich bei S. mal gelesen zu haben, dass zwar die Überschriften-Hierarchei eingehalten werden muss, aber H2 Überschriften wichtiger sind. Habe es aber grad auch nicht mehr gefunden und diese Info könnte auch überholt sein.

  9. Ich schließe mich der Aussage von Mario Fischer bzgl. https an. Laut meiner Beobachtung ein reiner Mythos, genau wie die mobile-friendly-Panikwelle. Seiten, die weder responsiv sind noch validen Code haben, noch schnell laden, werden auch heute noch genau da gerankt, wo sie schon immer waren. Stabil auf Platz 1 bei zig verschiedenen Suchanfragen. Ich habe keine Zweifel mehr – bis heute sind massenhafte Backlinks und aktive Keywordnutzung in Meta-Titles und Überschriften scheinbar die einzige Möglichkeit, das Ranking nach oben zu bringen. Ich hatte mal zum Testen eine Website streng nach Googles Richtlinien auf/umgebaut. Das Ergebnis nach wenigen Wochen: Fast komplett raus aus dem Index. Die hochgelobte Qualität einer Website und viele weitere oft zitierte Dinge sind aus meiner Sicht nach vielen Jahren Beobachtung schlicht und einfach Wunschträume. Genau das, was angeblich abgestraft wird (Keyword Stuffing etc.), ist meist das, was einzig und allein funktioniert. Leider. Den ganzen Brei von wegen Qualität und “zuerst der Nutzer” (Googles “Grundsatz”) kann man getrost beiseite legen, wenn man nach oben will. Aber trotzdem – so halte ich es zumindest: Valider Code und gute Nutzererfahrung sollten oberste Priorität haben. Nur schade, dass solche Arbeit in keiner Weise mit besseren SERPS belohnt wird. Das geht bis heute am besten mit Spam. Traurig aber wahr, und es will natürlich niemand zugeben 😉

  10. Das ist mal eine richtig umfangreiche Aufstellung auf deutsch. Wow, großes Lob dafür.
    Viele Faktoren hat man ja schon mal öfter mitbekommen, vor allem die zuerst genannten sicheren Ranking Faktoren. Aber z.B. Faktoren wie Server in der Nähe war mir komplett neu.
    Das zeigt einfach wieder, wie komplex das Thema SEO einfach geworden ist und auf was man alles achten muss hzw. sollte.
    Aber dank dieser Aufstellung ist das ja jetzt kein Problem mehr. Einfach alle Faktoren von oben nach unten durchgehen, bei der eigenen Seite beachten und schon läufts 🙂

HINTERLASSEN SIE EINE ANTWORT