Inhaltsverzeichnis
- 07.04.2016: Die richtige Sprache für Alt-Attribute
- 29.03.2016: Die zwei wichtigsten Google Ranking-Faktoren
- 07.03.2016: Google Suchergebnisse, Kandidatenkarten und eine Best Practice
- 03.2016: Die Google Sprachsuche
- 07.01.2016: Trennzeichen in der URL
- 04.01.2016: Großbuchstaben
- 23.12.2015: Gestaltung von 404 Seiten
- 23.12.2015: No Country Redirect geht nicht mehr
- 15.12.2015: Webmaster-Tipps von Google
- 24.11.2015: Einzigartige Produktbeschreibungen nötig?
- 04.11.2015: Google und der Internet Explorer
- 30.10.2015: Dynamische robots.txt
- 29.10.2015: The Wayback Machine wird zur Suchmaschine
- 27.10.2015: Canonical bei URL-Shortenern
- 19.10.2015: Nummern in der URL sind egal
- 08.10.2015: Bei Duplicate Content gewinnt die kürzere URL
- 02.10.2015: UPDATE: Die Autorenschaft wird vielleicht wieder eingeführt
- 29.09.2015: Ideen durch Konferenz und Erfahrung
- 24.09.2015: Social Signals als Ranking-Faktor
- 15.09.2015: Rechtliches für Seitenbetreiber
- 10.09.2015: Noindex in robots.txt?
- 08.09.2015: Das SEO-Schaufenster
- 02.09.2015: Martin Mißfeldt über die Ranking-Faktoren
- 01.09.2015: URL-Struktur
- 01.09.2015: Flash-Werbung wird in Chrome nicht mehr abgespielt
- 01.09.2015: Autoplay nur im vordergründigen Tab
- 27.08.2015: Suchabfragen und Keywords
- 21.08.2015: 7 Chancen für eine bessere Suchmaschinenoptimierung
- 31.07.2015: Google indexiert mehr URLs
- 29.07.2015: Internationale Domains arbeiten besser
- 22.07.2015: Wie Google die neuen Top Level Domains behandelt
- 21.07.2015: noindex,follow Seiten in die xml-Sitemap?
- 07.07.2015: Probieren geht über studieren
- 02.07.2015: URLs sollten immer in der Sprache des Inhalts sein
- 25.06.2015: Doppelrankings
- 25.06.2015: Wie man einen Blog promotet
- 25.06.2015: Wie Google Klicks nutzt
- 23.06.2015: Wie können SEOs heute den Long Tail nutzen?
- 22.06.2015: YouTube empfiehlt Augenzeugenberichte
- 21.06.2015: HTML Validierung ist nicht nötig, aber …
- 18.06.2015: Onepager am Beispiel privatdetektiv.de
- 12.06.2015: Die Relevanz der URL Struktur
- 10.06.2015: Yelp gegen gekaufte Bewertungen
- 08.06.2015: Die Zukunft des SEO
- 01.06.2015: Google’s Suchmetriken
- 01.06.2015: Ist Branding ein Faktor für das Google-Ranking?
- 30.04.2014: Matt Cutts: Wie wählt Google Titel für die Suchergebnisse aus?
- 22.10.2013: Matt Cutts: Unterschied zwischen strong und b Tag?
- 15.10.2013: Matt Cutts: Sollten sich Webmaster auf Social Media konzentrieren?
- 28.12.2012: SEO 2013, eine Prognose
07.04.2016: Die richtige Sprache für Alt-Attribute
Im StackExchange Forum hat John Mueller gestern eine interessante Frage beantwortet. Hierbei dreht es sich im die richtige Sprache für Alt-Attribute. Denn der Nutzer wollte gerne wissen, ob er die Alt-Tags für jedes Bild in der Sprache der Inhalte erstellen muss – oder ob zum Beispiel deutsche Inhalte auch ein englisches Alt-Attribut haben können.
Denn hat ein Webmaster mehrere Sprachversionen (beispielsweise mit dem Hreflang), dann könnte es ihm viel Arbeit sparen, einfach überall das gleiche Bild mit dem gleichen Tag hochzuladen. Ansonsten müssten die Tags für jede Sprache noch einmal extra angepasst werden.
Lokalisierte Tags für lokalisierte Inhalte
Doch John ist der Meinung, dass sich diese Arbeit lohnt und dass lokalisierte Inhalte auch lokalisierte Alt-Tags benötigen. Ist eine Website also komplett auf den deutschen Markt ausgerichtet, dann sollten auch die Alt-Attribute in deutscher Sprache gehalten sein. Englische Tags machen für ihn dann keinen Sinn.
Denn die Alt-Attribute sind dazu gedacht, dem Nutzer zu erklären, worum es sich bei dem Bild handelt. Dies kommt unter anderem dann ins Spiel, wenn die Bilder selbst nicht angezeigt werden können oder der Nutzer unter einer Sehschwäche leidet (dann können spezielle Programme ihm das Alt-Tag vorlesen).
Um eine wirklich komplette Website für einen Sprachraum zu erstellen, darf man also auch die Alt-Attribute nicht außen vor lassen. Vielmehr sollten diese auch immer in der Landessprache verfasst werden, um die Erfahrung auf der Seite für Google und vor allem für den Nutzer zu verbessern.
29.03.2016: Die zwei wichtigsten Google Ranking-Faktoren
Immer wieder fragen sich SEOs und Website-Betreiber, wie sie bei Google besser ranken können. Hierzu meinen sie, dass sie nur die wichtigsten Ranking-Faktoren kennen müssten – dann könnten sie diese optimieren und dadurch ihre Rankings deutlich nach oben schnellen lassen.
Aus diesem Grund werden auch Google-Mitarbeiter immer wieder auf die Ranking-Faktoren angesprochen. Normalerweise halten sie sich hierbei bedeckt. Doch nun ist Andrey Lipattsev, Search Quality Strategist von Google in Dublin, aus der Reihe getanzt und hat die zwei wichtigsten Google Ranking-Faktoren verraten.
Was sind die wichtigsten Ranking-Faktoren?
In einem Google Q&A wurde Andrey auf die wichtigsten Ranking-Faktoren angesprochen. Und darauf, dass Google diese nicht nennen möchte. Zur Überraschung aller Beteiligten nutzte er diesen Moment, um die beiden aus Google-Sicht wichtigsten Ranking-Faktoren zu verraten. Hier seine Aussage im übersetzten Wortlaut.
Frage von Ammon Johns: “Können Webmaster davon profitieren, wenn sie die zwei wichtigsten Ranking-Faktoren kennen würden?”
Antwort von Andrey: “Ja, ich kann euch auch einfach sagen, was sie sind. Es sind Content und Links, die zu eurer Seite zeigen. Und dabei gibt es keine Reihenfolge. […] Es ist nicht so, dass es X-wichtig ist, eine Anzahl an Links zu haben, während es Y-wichtig ist, eine Anzahl an Keywords zu haben. So funktioniert das nicht. Wir versuchen, immer besser darin zu werden, Sprachen zu verstehen. Wir nutzen dann Machine Learning, um die Bedeutungen dahinter zu begreifen.”
Content und Links – was bringt uns das?
Wir wissen nun also, dass Inhalte und Links die wichtigsten Ranking-Faktoren für Google sind. Die meisten von uns dürften damit genauso schlau sein wie vorher – denn dies ist eigentlich nur eine Bestätigung dessen, was zahlreiche Webmaster und SEOs sich schon seit einiger Zeit gedacht haben.
Doch jeder, der eine erfolgreiche Website betreibt – oder betreiben will – sollte gute Inhalte als Grundvoraussetzung ansehen. Diese werden dann zu guten Links führen. Denn Google möchte sehen, dass eine Seite so gut ist, dass der Nutzer nicht nur lange auf ihr verweilt – ideal ist es, wenn auch eine Interaktion stattfindet.
Es wird für SEOs daher immer wichtiger, über die technischen Grundvoraussetzungen hinaus auch auf die Zufriedenheit des Nutzers hin zu optimieren. Es ist also von höchster Wichtigkeit, Suchanfragen so zu beantworten (beziehungsweise Probleme von Suchenden so zu lösen), dass diese mit der eigenen Seite glücklich werden.
Suchmaschinenoptimierung muss also immer mehr darauf abzielen, denn Nutzer zufriedenzustellen. Dies kann natürlich wiederum nur funktionieren, wenn die Website auf technischer Ebene einwandfrei ist. Technisches SEO sollte daher immer mit der Inhaltserstellung Hand in Hand gehen.
Links sind kein Allheilmittel – aber PageRank ist noch wichtig
Aber trotzdem ist es wichtig zu wissen, dass eine inhaltlich schlechte Seite nicht durch viele (künstlich aufgebaute oder auch gekaufte) Links gerettet werden kann. Vielmehr sind die Links als das I-Tüpfelchen zu verstehen, die einer starken Seite zusätzliche Relevanz verleihen.
Nichtsdestotrotz ist der PageRank entgegen vieler anders lautender Berichte nicht tot. Im Gegenteil wird dieser von Google noch immer genutzt. Es ist also wichtig, auch bei der internen Verlinkung immer auf die entsprechende Gewichtung zu achten. Im Unterschied zu früher ist der PageRank jedoch nicht mehr öffentlich einsehbar.
In manchen Fällen sollte man also auch darauf achten, ausgehende Links mit dem Nofollow-Attribut zu versehen (wenn Ihr dafür Geld oder eine andere Leistung erhalten habt). Denn Google macht in seinen Webmaster Richtlinien mehr als deutlich, dass die Manipulation von PageRank auch dann noch bestraft werden kann, wenn der Webmaster den PageRank gar nicht mehr sehen kann.
Was beeinflusst das Ranking – und was nicht?
Immer wieder kommt auch die Frage auf, ob Faktor X ein Ranking-Faktor für Google ist. Die Antwort von Offiziellen wie John Mueller oder Gary Illyes ist dann oft, dass dies kein direkter Ranking-Faktor ist, aber trotzdem indirekt einen Einfluss auf das Ranking einer Website haben kann. Auch auf diesen Zwiespalt ging Andrey ein:
Frage von Ammon Johns: “Im Endeffekt beeinflusst jeder Faktor das Ranking, sonst gäbe es keinen Grund, ihn einzubauen.”
Antwort von Andrey: “Im Endeffekt kann man das denke ich so sagen. Im Endeffekt beeinflusst auch die Erreichbarkeit eurer Website das Ranking – denn wenn wir sie nicht erreichen können, dann können wir sie nicht ranken. Ich denke aber, dass es nicht so sehr das Ranking einer einzelnen Seite beeinflusst. Vielmehr beeinflusst es unser Verständnis einer Suchanfrage. Und wenn sich unser Verständnis verändert, dann zeigen wir wahrscheinlich etwas anderes für diese Anfrage.”
Alles ist ein potentieller Ranking-Faktor
Es ist nicht so, dass all diese Details in Google’s Algorithmen vorkommen. Daher sind sie nicht unbedingt ein direkter Ranking-Faktor im eigentlichen Sinne. Jedoch beeinflusst, wie oben gesagt, das Nutzerverhalten im Endeffekt auch die organischen Suchergebnissen. Und dieses hängt von vielen Faktoren ab, die nicht in Google’s Algorithmen Platz gefunden haben.
Schrecken solche Faktoren die Nutzer ab, wird dies also auch von Google als negativer Faktor registriert und entsprechend bewertet. Im Umkehrschluss führt positives Nuterzverhalten, dass auf solche “weichen” Faktoren zurückzuführen ist, zu einer positiveren Bewertung durch Google.
Die Hauptaufgabe muss es also sein, eine tolle Seite zu erstellen, die von Nutzern gerne besucht, genutzt und geteilt wird. Erreicht man dies wird dieses sicher zu einem besseren Ranking führen. Eine ausführliche Analyse der eigenen Zielgruppe ist also unumgänglich, um die passenden Dinge einbauen zu können.
Es gibt nicht den “einen”Algorithmus
Webmaster sollten dabei auch eines beachten: Es gibt nicht den einen Algorithmus oder die eine Gewichtung von Faktoren! Vielmehr ist es so, dass diese Dinge von mehreren Umständen abhängen. Die Personalisierung der Suche spielt dabei genauso eine Rolle wie die ständigen Tests, die von Google in den SERPs durchgeführt werden.
Aus diesen Gründen erhalten zwei nebeneinander sitzende Nutzer bei derselben Anfrage unter Umständen unterschiedliche Ergebnisse. Hinzu kommt, dass je nach der Anfrage die einzelnen Ranking-Faktoren unterschiedlich gewichtet werden können. Denn die Algorithmen sind mittlerweile äußerst dynamisch und richten sich nach der Eingabe des Suchbegriffes.
So werden beispielsweise bei einer Anfrage hinsichtlich Online-Shopping andere Faktoren in den Vordergrund gerückt, als wenn es um eine rein informative Suchanfrage geht. Webmaster sollten sich also nicht an einen Algorithmus und dessen Ranking-Faktoren ketten, sondern lieber so optimieren, dass ihre Nutzer wirklich glücklich werden.
Dann klappt es auch mit dem Ranking!
Wenn du noch mehr zu den Ranking Faktoren lesen möchtest, interessieren dich vielleicht alle bekannten Ranking Faktoren?
07.03.2016: Google Suchergebnisse, Kandidatenkarten und eine Best Practice
Am Wochenende gab es wieder einige Neuerungen bei Google zu beobachten. Diesmal handelt es sich um eine spannende Statistik im Hinblick auf die Suchergebnisse, um ein neues Feature und um eine hilfreiche Best Practice.
Position 10 ist besser als…
SEOs und Seitenbetreiber fragen sich oft, ob es denn wirklich immer erstrebenswert ist, eine Rankingverbesserung anzustreben. Natürlich wären alle mit ihren Seiten gern auf Position 1, 2 oder 3, aber wie sieht es dahinter aus?
Eine Theorie besagt dabei, dass Position 10 besser ist, als die Positionen 9 und 8. Denn diese findet sich häufig direkt über den Klickmöglichkeiten, mit denen man auf die nächste Seite der SERPs gelangen kann.
Könnte es also sein, dass dieses Ergebnis daher mehr Aufmerksamkeit bekommt als die Positionen, die im unteren Drittel der organischen Suchergebnisse stehen? Dies könnte neue Optimierungsoptionen eröffnen.
Und laut Google ist dies tatsächlich der Fall. Paul Haahr hat auf der SMX ein paar entsprechende Statistiken geteilt, die folgendes besagen: Position 10 erhält so viele Klicks wie die Positionen 8 und 9 zusammen – jedoch weniger als Position 7. Dies dürfte vielen SEOs Stoff zum Nachdenken liefern.
Best Practice für JavaScript
Ein häufiger Fehler, der Websites langsam oder gar uncrawlbar macht, ist die falsche Verwendung und die fehlerhafte Implementierung von JavaScript. Denn bei diesem Thema ist es von äußerster Wichtigkeit, gewisse Regeln zu beachten.
Und um Webmastern das Leben ein wenig zu erleichtern, hat John Mueller eine entsprechende Best Practice für den Umgang mit JavaScript zusammengestellt. Diese ist uf seinem Google+ Account zu finden.
Hier hat der das aktuelle Know How zum Thema übersichtlich zusammengetragen und mit de entsprechenden Links angereichert. Webmaster, die sich bei der Implementierung unsicher sind, können also einfach noch einmal nachschauen.
03.2016: Die Google Sprachsuche
Google möchte Nutzer dazu bringen, die Sprachsuche zum Shopping zu nutzen. Außerdem bietet diese nun landläufige Tiergeräusche an. Die Sprachsuche wird im Google Kosmos also immer wichtiger
Conversational Shopping
Auf der SMX werden immer auch Zukunftsprojekte vorgestellt. In diesem Sinnesprach Behshad Behzadi von Google Schweiz über die Möglichkeiten auf dem Gebiet der Konversationssuche.
Google’s Plan ist es hier, dass Nutzer im Zwiegespräch mit ihrem Endgerät ihre Einkäufe erledigen können. So könne man Produkte nicht nur durch die Sprachsuche finden und angezeigt bekommen.
Man könne darüber hinaus auch sagen: “Ok Google, kaufe das Angebot von ShopX”. Und gleich danach würde man die Rechnung erhalten. Damit könnte man immer mehr davon weggehen, Dinge anklicken und tippen zu müssen.
Und auch für Google könnte sich dies lohnen. Denn sobald dies funktioniert, werden sicher die Product Listing Ads perfekt darauf vorbereitet sein. So könnte Google auch in Zukunft seinen Anteil am Shoppingprozess sicherstellen.
Tierlaute
In eine ganz andere Richtung geht eine weitere Neuerung auf dem Gebiet der Sprachsuche. Denn wenn man künftig fragt: “Ok Google, wie macht TierX”, dann spielt Google das entsprechende Tiergeräusch ab.
Dies dürfte vor allem für Kinder ein tolles Feature sein, mit dem die Kleinsten viele spaßige Stunden verbringen können. Doch auch Erwachsene dürften damit ihre helle Freude haben – und sei es nur, um andere damit zu ärgern.
Fazit
Dies zeigt einmal mehr, dass Google sein Augenmerk nicht nur auf die aktuellen SERPs legt. Um seine Spitzenposition dauerhaft zu verteidigen muss der Konzern seinen Konkurrenten einfach immer eine Nasenlänge voraus sein.
Und dies ist nur möglich, indem neue Felder frühestmöglich besetzt werden. Sei es das maschinelle Lernen, das mobile Internet oder halt die Sprachsuche. Wir dürfen gespannt sein, was für weitreichende Neuerungen es auf diesen Gebieten in der nächsten Zeit geben wird.
07.01.2016: Trennzeichen in der URL
Wie wir wissen, rät Google grundsätzlich davon ab, Sonderzeichen in der URL zu verwenden. Denn dies kann beim Verarbeiten des HTML zu Problemen bei Google führen, die im Gegenzug die Performance der Seite einschränken würden.
So verhält es sich entsprechend auch mit Trennzeichen – also einer Struktur wie seo-portal.de/nur.ein.beispiel. Laut John Mueller kann man das zwar machen, es wäre aber “eine schlechte Idee”.
Daher sollten Webmaster auf einen solchen Aufbau ihrer URLs verzichten. Grundsätzlich sollte man sich in solchen Fällen auf das althergebrachte verlassen. Denn dies ist nicht nur für Google das Beste, sondern auch für die Nutzer vertraut und vertrauenserweckend.
04.01.2016: Großbuchstaben
Es ist eine Frage, die immer wieder aufkommt: Haben Großbuchstaben in der URL eine Auswirkung auf die SEO-Performance und das Ranking? Denn vor einiger Zeit haben Suchen mit Großbuchstaben noch andere Ergebnisse zu Tage gefördert, als Suchen ohne.
Dies ist nun aber nicht mehr der Fall. Und auch Großbuchstaben allgemein haben keine positive oder negative Auswirkung. Dies bestätigen sowohl Googler John Mueller als auch Ex-Googler Pedro Dias in einem Webmaster Central Help Forum Thread. Damit sollte dieses Thema endgültig geklärt sein.
23.12.2015: Gestaltung von 404 Seiten
Auf Nachfrage bei Twitter stellte John Mueller fest, dass es Google komplett egal ist, was Webmaster auf einer 404 Fehlerseite präsentieren. Denn Google ignoriert diese sowieso und hat daher kein Interesse an den entsprechenden Inhalten.
Es ist daher auch nicht nötig, diese Seiten mit einem Noindex zu versehen – denn sie werden sowieso nicht indexiert. Webmaster können ihrer Kreativität also freien Lauf lassen.
23.12.2015: No Country Redirect geht nicht mehr
Eine der beliebtesten Google-Funktionen für SEOs war lange Zeit das No Country Redirect Feature. Mit diesem war es möglich, unabhängig vom eigenen Standort auf Google.com zuzugreifen.
Nun ist Pedro Dias aufgefallen, dass diese Funktion nicht mehr zur Verfügung steht. Nutzer außerhalb der USA müssen sich daher nun mit ihrer lokalen Version von Google zufrieden geben.
15.12.2015: Webmaster-Tipps von Google
Wenn Webmaster nicht mehr weiterwissen, dann stellen sie oft Fragen bei Twitter oder in den Google Foren. Und hier gibt es vor allem einen Google-Mitarbeiter, der immer wieder hilfreiche Antworten parat hat: John Mueller. Hier sind einige weitere Beispiele, die das untermauern.
URL-Struktur
Grundsätzlich würde John davon abraten, Sonderzeichen in der URL zu verwenden – also Kommas, Doppelpunkte, Semikolons, Leerzeichen, Anführungszeichen und ähnliche Zeichen.
Google kann diese zwar in einer Sitemap erkennen, im HTML kann es jedoch unter Umständen zu Problemen führen. Wer auf eine saubere URL-Struktur umstellen möchte, solle entsprechend 301-Weiterleitungen und Canonical Tags nutzen.
Spammer bekämpfen
Und schließlich hat John noch einen Hinweis, wie man Spammer auf Seiten mit User Generated Content richtig bekämpfen kann. Denn laut seiner Aussage reicht es nicht, Links und Inhalte einfach nur auf Noindex, Nofollow zu stellen.
Darüber hinaus solle man schwere Geschütze auffahren. Beispielsweise, indem man das Anmelden erschwert und Inhalte rigoros löscht. So kann man den Spammern mitteilen, dass sie nicht erwünscht sind und weiterziehen sollen.
24.11.2015: Einzigartige Produktbeschreibungen nötig?
Eine Frage, die sich Shopbetreiber immer wieder stellen, hat mit den Produktbeschreibungen zu tun. Diese werden oft vom Hersteller mitgeliefert und dann von vielen Shops übernommen – reicht das aus oder sollte man sie umschreiben?
Dieser Frage hat sich nun John Mueller bei Twitter angenommen. Er hält es für sinnvoll, die Texte, wo möglich, umzuschreiben. Denn so kann man sich vor potentiellen Kunden als Experte auf einem Gebiet darstellen.
Man solle es jedoch nur machen, wenn man den Text ohne Spin schreiben und die Einzigartigkeit sinnvoll herbeiführen kann. Dies kann man mit einer kleinen Anzahl an Produkten zunächst testen. Denn laut John sind solche einzigartigen Produkttexte “meistens nicht kritisch”, also für Google nicht so wichtig.
04.11.2015: Google und der Internet Explorer
In den letzten Tagen gab es im Google Produktforum einen rasant anwachsenden Thread, in dem sich zahlreiche Nutzer des Internet Explorer beschwerten – denn für sie war es nicht mehr möglich, eine Suche mit Google durchzuführen.
Es ist fraglich, was die Suchmaschine dazu veranlasst haben könnte, auf einmal nicht mehr für einen Browser zu funktionieren. Aber offensichtlich war es ein Problem auf Google’s Seite – denn gestern wurde nach weniger als einer Woche angekündigt, dass das Problem behoben sei.
Es könnte Google also theoretisch möglich sein, auf einfache Weise ganze Browser von seinen Diensten auszuschließen. Dies sollte aber nicht wissentlich passieren, denn Google hat in der vergangenen Woche sicherlich zehntausende Nutzer verpasst oder gar verloren.. Überraschend ist hingegen vor allem, dass noch so viele Leute den Internet Explorer nutzen.
30.10.2015: Dynamische robots.txt
John Mueller ist zur Freude von Webmastern immer wieder in den Foren unterwegs, um bei technischen Problemen und seltenen Fragen zu helfen. Auch gestern stand er mal wieder einem Webmaster zur Seite.
Robots.txt sollten nicht dynamisch sein
Die Frage war, ob die Sitemap und die robots.txt dynamisch gestaltet werden sollen. John äußerte sich dazu sehr ausführlich und ließ keine Fragen offen: Sitemaps ja, robots.txt nein! Man sollte also davon absehen, die robots.txt für denselben Host dynamisch einzustellen.
“Das Sitemap File dynamisch zu gestalten ist ok – das ist ein guter Weg, um eure Sitemaps automatisch zu updaten.
Ein dynamisches robots.txt File (für denselben Host! Das für verschiedene Hosts zu machen wäre eigentlich nur ein normales robots.txt File für jeden von ihnen) würde wahrscheinlich Probleme verursachen: Es wird nicht jedes Mal gecrawlt, wenn die URL der Seite gecrawlt wird. Daher kann es passieren, dass die ‘falsche’ Version im Cache landet.
Zum Beispiel kann es sein, dass ihr das Crawling während der Geschäftszeiten blockiert. Dann kann es passieren, dass dies in dieser Zeit gecached wird und dann für den ganzen Tag gilt – was bedeuted, dass nichts gecrawlt (oder gecached, wenn das Crawlen erlaubt ist) wird. Beispielsweise crawlt Google die robots.txt für die meisten Seiten etwa ein mal pro Tag.”
29.10.2015: The Wayback Machine wird zur Suchmaschine
The Wayback Machine ist die Zeitmaschine des Internets. Durch Eingabe einer URL kann man hier sehen, wie sich Webseiten im Laufe der Jahre entwickelt haben. Von den ersten Gehversuchen bis hin zu modernsten Elementen ist also alles abrufbar.
Dieses Archiv reicht bis 1996, also stolze 19 Jahre, zurück. Daher ist es nun an der Zeit, der Seite einmal eine Generalüberholung zukommen zu lassen. Diese wird nicht nur kosmetischer Natur sein, sondern auch die Funktionsweise der Seite verändern.
Keywordsuche als neues Feature
Denn künftig, also nach Fertigstellung der Neuerungen im Jahr 2017, wird The Wayback Machine auch eine Keywordsuche beinhalten. Diese wird den Nutzer dann immer auf die Homepage der entsprechenden Seite führen, damit nicht jede einzelne Seite indexiert werden muss.
Dann muss man nicht mehr eine genaue URL eingeben, sondern kann sich mittels Keywords durch verschiedene Seiten klicken. Dies macht Sinn, da das Archiv mittlerweile mehr als 439 Milliarden Seiten umfasst – da möchten Nutzer vielleicht auch einmal ins Blaue hinein Seiten aus einer bestimmten Sparte anschauen.
Damit wird The Wayback Machine zu einer neuen Art der Suchmaschine. Wir freuen uns schon auf das fertige Ergebnis.
27.10.2015: Canonical bei URL-Shortenern
Wir haben vor einigen Wochen darauf hingewiesen, dass URL-Shortener zum Teil mit Vorsicht zu genießen sind – denn nicht alle leiten vernünftig weiter. Eine entsprechende Sorge hatte nun ein Nutzer bei Twitter.
Auf seine Frage, ob man die URL-Shortener bei Google registrieren kann, um zu verhindern, dass die eigene Seite im Ranking überholt wird, gab nun John Mueller eine eindeutige Antwort. Er stellt klar, dass eine Registrierung nicht nötig ist – wenn man aber sicher gehen will, dass alles korrekt weitergeleitet wird, dann sollte man ein Canonical Tag setzen.
19.10.2015: Nummern in der URL sind egal
Im Webmaster Help Forum kam die Frage auf, ob ein suboptimales Ranking auf Nummern in der URL zurückzuführen sein könnte. John Mueller hatte darauf jedoch eine eindeutige Antwort:
“Nein, Nummern in der Domain sind für das Ranking egal. Manchmal braucht es mehr Zeit und Arbeit, um in den Suchergebnissen gut zu ranken, also macht einfach weiter!”
Das bestätigt, dass dieses Detail keinen Unterschied für das Ranking nach sich zieht – Webmaster können sich also die Version aussuchen, die ihnen persönlich besser gefällt: Ob “webseite1.de” oder “webseiteeins.de” ist aus Google-Sicht egal.
08.10.2015: Bei Duplicate Content gewinnt die kürzere URL
Eines der großen Probleme von Webseitenbetreibern ist Duplicate Content – also gleiche oder sehr ähnliche Inhalte auf mehreren Seiten. Dies kann zwar durch die Nutzung von Canonical Tags behoben werden, da diese Google anzeigen welche Version im Index landen soll. Immer ist dies jedoch nicht möglich (oder wird schlicht vergessen).
Dies kann negative Konsequenzen haben. Unter Umständen wird die Seite schlecht bewertet. Und fraglos werden nicht alle Versionen in den Suchergebnissen auftauchen, sondern nur eine. Und Gary Illyes hat nun verraten, unter welchen Gesichtspunkten Google sich für eine Variante des Inhalts entscheidet.
Algorithmen mögen kurze URLs
Bei Twitter fragte Jennifer Slegg, ob Google in solchen Fällen die kürzeste URL bevorzugt. Sie kam auf diese Idee, da Rand Fishkin von MOZ eine entsprechende Strategie für seine Whiteboard Fridays benutzt.
Gary war über die Frage sichtlich verwundert, gab aber nichtsdestotrotz eine eindeutige Antwort:
“Ja, wenn ihr ihnen die Wahl lasst bevorzugen die Canonical-Algorithmen grundsätzlich kürzere URLs.”
Sicher wird es nicht immer so funktionieren. Gerade bei Inhalten, die nicht komplett gleich sind, können auch andere Faktoren eine Rolle spielen. Doch wenn eine Seite einmal entsprechende Probleme hat, kann die Länge der URL unter Umständen der entscheidende Faktor sein. Diese Erkenntnis dürfte vielen SEOs bei künftigen Duplicate Content Maßnahmen helfen.
02.10.2015: UPDATE: Die Autorenschaft wird vielleicht wieder eingeführt
Im vergangenen Jahr hat Google die Autorenschaft (Authorship Markup) wieder gänzlich entfernt. Gleiches gilt auch für das Autorenbild, dass sogar noch früher fallen gelassen wurde. Und laut John Mueller’s Aussage im Webmaster Hangout vom 04. Juni ist diese Entscheidung endgültig:
Frage:
Die Autorenschaft (Autorenbild) wurde schon vor einige Monaten aus den Suchergebnissen entfernt. Existiert die Autorenschaft als solche noch?
Antwort:
Wird aktuell für Rankings eigentlich gar nicht verwendet.
Frage:
Was ist mit dem Konzept der Autorenschaft geschehen, nachdem Google das ja eine Zeit lang sehr fokussiert hat?
Antwort:
Die Autorenschaft war für Google problematisch, da nicht klar war, wie man mit den Autoreninfos umgehen soll. Für Google hatten die so generierten Informationen keinen Mehrwert. Im Prinzip hat die Autorenschaft nicht so funktioniert, wie Google sich das vorgestellt hat. Daher wurde sie schlussendlich wieder komplett abgeschafft.
Vielleicht doch eine Rückkehr?
Doch nun hat sich Gary Illyes auf der Search Marketing Expo zum Thema Autorenschaft geäußert – und etwas sehr verwirrendes beigetragen. Denn er empfiehlt, die entsprechenden Markups auf der Seite zu belassen!
Seine Logik ist hierbei einleuchtend: Man weiß ja nie, ob Google es vielleicht wieder einführt – daher kann man es einfach im Code lassen. Dies ist an sich schon überraschend genug. Doch die Frage, die daraus folgt, ist: WIE würde Google dieses Markup in Zukunft nutzen?
Eine Möglichkeit ist, dass es zur Analyse von Influencern dienen kann. Also ein Faktor in der Bestimmung von einflussreichen Menschen wird. Laut Barry Schwartz kann es auch sein, dass Google damit erkennt, welche langen Artikel in den SERPs angezeigt werden sollen. Wir werden dieses spannende Thema auf jeden Fall weiter für euch verfolgen!
UPDATE: Rückkehr, wenn es viel genutzt wird?
Gary Illyes wird nach seinem überraschenden Statement nun regelmäßig mit Fragen zu einer möglichen Rückkehr der Autorenschaft gelöchert. Bei Twitter gab er nun folgendes zu Protokoll:
“Wenn Leute etwas konsequent einsetzen, dann versuchen wir, es auch zu nutzen.” Auf Nachfrage bestätigt er dann, dass, wenn immer mehr Seitenbetreiber das Markup nutzen, Google es wohl wieder einführen würde. Es ist also tatsächlich sinnvoll, die Autorenschaft nicht zu entfernen.
29.09.2015: Ideen durch Konferenz und Erfahrung
Lange Inhalte können funktionieren
Oft ist die Meinung zu hören, dass lange Inhalte im Internet nicht funktionieren. Gründe sind beispielsweise, dass Nutzer auf Bildschirmen langsamer lesen und entsprechend schneller ermüden. Doch es kann auch den richtigen Ort und die richtige Zeit für lange Inhalte geben.
John E. Lincoln zeigt bei Search Engine Land, wie man dank langer Inhalte als Experte auf einem Feld wahrgenommen werden kann. Zudem kann solcher Content für SEO-Zwecke hilfreich sein. Wichtig ist jedoch, dass man lange Inhalte nur erstellt, wenn diese auch zur Zielgruppe passen und von dieser gewünscht werden.
Einblicke der Online Marketing Konferenz
Zudem kann man auf Konferenzen immer spannende Dinge lernen. So erging es auch den Kollegen von Projecter, welche die Online Marketing Konferenz in Lüneburg besucht haben. Von diesem Besuch haben sie einige Einblicke mitgenommen, die sie in ihrem übersichtlichen Artikel mit ihren Lesern teilen.
Diese stammen aus den zahlreichen Panels und spannen den Bogen von der Mobiloptimierung hin zur richtigen Nutzung von YouTube und Storytelling. Es werden entsprechend einige spannende Punkte angesprochen. Diese Beispiele zeigen, dass auch erfahrene SEOs durch Tests und Konferenzbesuche noch neue Dinge lernen oder zumindest frische Perspektiven erhalten können.
24.09.2015: Social Signals als Ranking-Faktor
In den Webmaster Hangouts mit John Mueller kommt immer wieder die Frage auf, in wie fern sich Social Signals auf das Ranking in der organischen Suche auswirken. John’s Antworten gleichen sich hier immer: Sie sind kein direkter Ranking Faktor.
ABER, sie bringen Traffic und Interaktionen und zeigen Google damit, dass Inhalte hochwertig sind. Zudem helfen sie beim Branding und Linkaufbau. Und nicht zu vergessen, das Tweets mittlerweile sogar in den Suchergebnissen auftauchen.
Mit diesen Punkten, die die indirekte Relevanz von Social Signals für die SERPs beweisen, befasst sich Christian Kunz ausführlich bei SEO-Südwest. Mit seinem lesenswerten Artikel beschreibt er den Nutzen einer erfolgreichen Präsenz in den sozialen Medien umfassend und verständlich.
Update: Auch zum Reputationsmanagement geeignet
Darüber hinaus zeigt Tony Edward bei Search Engine Land, dass auch das immer wichtiger werdende Reputationsmanagement von gut gepflegten sozialen Profilen profitiert.
Er zeigt anhand von Beispielen anschaulich, wohin es führen kann, wenn diesem Bereich keine ausreichende Bedeutung beigemessen wird. Damit wird einmal mehr deutlich, wie stark der indirekte Einfluss von Social Signals auf eine gute Performance in den SERPs ist.
15.09.2015: Rechtliches für Seitenbetreiber
Seiten müssen aus dem Cache
Oft wird ein Seitenbetreiber mit rechtlichen Schritten (oder mit der Androhung von rechtlichen Schritten) dazu gebracht, eine oder mehrere Seiten aus seinem Webangebot zu löschen. Nur mit dem Löschen der entsprechenden Seiten oder Inhalte ist dieser Vorgang jedoch nicht abgeschlossen.
Das Oberlandesgericht Celle hat festgelegt, dass es auch zu den Aufgaben des Webseitenbetreibers gehört, die Seiten aus dem Suchmaschinen-Cache entfernen zu lassen. Hierbei hat das Gericht entschieden, dass in Deutschland nur der Google-Cache entscheidend ist – andere Suchmaschinen hätten nicht genug Marktanteil, um den Mehraufwand zu rechtfertigen.
Webmaster sollten also in solchen Fällen immer daran denken, die beanstandeten Seiten oder Inhalte via Search Console auch aus dem Google-Cache zu löschen.
Cookies und Datenschutz
Zudem schreibt Rechtsanwalt Marc Laukemann bei Onpage.org über die neuen europäischen Datenschutzrichtlinien und Google’s Vorgaben bezüglich Cookies.
Er erwartet, dass Google die entsprechende Hinweispflicht künftig auch bei anderen Diensten, wie beispielsweise Analytics, voraussetzen wird. Zudem weißt er darauf hin, dass ein Nicht-Befolgen dieser Pflicht bereits heute abmahnfähig ist.
Aus diesem Grund ist es für jeden Seitenbetreiber sinnvoll, den ausführlichen Artikel zu lesen– hier stellt der Autor auch eine hilfreiche Best Practice zur Verfügung.
10.09.2015: Noindex in robots.txt?
Max Prin hat getestet, dass man das Disallow umgehen kann, indem man Noindex in der robots.txt nutzt. Seine Erkenntnis teilte der bei Twitter und bekam von John Mueller eine eindeutige Antwort.
John sagt, dass er dieses Vorgehen wirklich vermeiden würde:
Auf Nachfragen, warum dies so sei, da es doch funktioniert, ging John etwas detaillierter auf die Google-Regularien ein. Dieses Vorgehen werde von Google “nicht offiziell unterstützt, daher gehe ich davon aus, dass es nicht stabil ist. Ich würde auf keinen Fall empfehlen, darauf zu setzen.”
Auch wenn es eine verlockende Abkürzung darstellt, sollte Noindex in der robots.txt also zurzeit nicht genutzt werden – sondern erst, wenn Google seine Regeln auf diesem Gebiet einmal ändern sollte.
08.09.2015: Das SEO-Schaufenster
Marco Janck hat auf SUMAGO einen ausführlichen Artikel verfasst in dem er auf die Verbindungen zwischen Online- und Offline-Shops eingeht. Hierbei hat es ihm vor allem das Schaufenster angetan, welches er in die Online-Welt transportieren möchte.
In dem Artikel diskutiert er, wie man die Area Above the Fold, also den direkt sichtbaren Bereich einer Webseite bzw. eines Online-Shops, nach SEO-Gesichtspunkten in ein digitales Schaufenster verwandeln kann, das die Kunden zum Verweilen im “Laden” einlädt.
Der Artikel ist absolut lesenswert und regt zum Nachdenken über die Gestaltung und Aufteilung von Webseiten an. Daher wollen wir an dieser Stelle auch gar nicht zu viel vorweg nehmen, sondern euch auf den oben verlinkten Originalartikel verweisen.
02.09.2015: Martin Mißfeldt über die Ranking-Faktoren
Martin Mißfeldt regt mit seinem neuesten Artikel zum Nachdenken über die Google Ranking-Faktoren an. Sein Ziel ist es, die Debatte darüber, was die Algorithmen wie berücksichtigen, mehrdimensional zu gestalten.
Er gibt zu bedenken, dass neben der meist beachteten Korrelation von Faktoren mit ziemlicher Sicherheit auch weitere Kriterien berücksichtigt werden. Dies bezeichnet er als „wenn, dann – Weichen“. Ist ein Keyword also einer bestimmten Kategorie zuzuordnen, so werden im Algorithmus die entsprechenden Faktoren stärker gewichtet.
Seine interessante Theorie untermauert Martin Mißfeldt mit dieser übersichtlichen Grafik. Um mehr zu erfahren, schaut auf seiner Seite vorbei – es lohnt sich.
01.09.2015: URL-Struktur
John Mueller hat sich auf Google+ der Frage gewidmet, ob URLs mit Leerzeichen eine annehmbare Praxis darstellen. Seine Antwort ist zunächst etwas kryptisch, wird am Ende jedoch deutlicher. Er empfiehlt, die Lücken zu füllen.
Dies kann entweder mit „+“ oder „%20“ geschehen, am übersichtlichsten sind jedoch „-“. Dies ist auch die Zusammenfassung eines von John verlinkten Beitrages bei ProWebmasters.
01.09.2015: Flash-Werbung wird in Chrome nicht mehr abgespielt
Zudem gibt es zwei Neuigkeiten bezüglich Google Chrome. Erstere Betrifft Flash. Wie angekündigt werden im Google-Browser ab heute viele Flash-Werbeeinblendungen per Default pausiert. Sie werden also nicht mehr abgespielt – ein weiterer Beleg dafür, dass sich Flash allgemein auf dem absteigenden Ast befindet.
Man kann gespannt sein, wann diese Funktion auf weitere Flash-Inhalte ausgeweitet werden wird. Webseitenbetreiber, die noch immer grundlegend auf Flash-Inhalte bauen, sollten sich entsprechend überlegen, wie lange eine solche Ausrichtung noch sinnvoll sein wird.—
01.09.2015: Autoplay nur im vordergründigen Tab
Zudem wird Chrome künftig – sinnvollerweise – die Autoplay-Funktion von Videos auf den momentan im Vordergrund geöffneten Tab beschränken. Dies dürfte das Surfen für viele Nutzer übersichtlicher machen.
Nun startet die Autoplay-Funktion, sobald der entsprechende Tab angesehen wird. Der mühsam erstellte Inhalt geht also künftig nicht mehr im Hintergrund verloren, sondern wird zum richtigen Zeitpunkt abgespielt.
27.08.2015: Suchabfragen und Keywords
Neil Patel hat bereits im März einen schönen Artikel zu diesem Thema auf searchenginejournal.com geschrieben, der bis heute so seine Gültigkeit hat.
Neil bezieht sich hier auf die Unterschiede in der Denkweise und Intention. Wir als SEO´s denken in Keywords, User aber in Suchabfragen. Nicht immer passen beide zusammen, aber oftmals kann man mit der richtigen Auswahl der Keywords eine ganze Menge an Suchabfragen beantworten.
Nachfolgend beschreibt Neil sehr gut, wie man diese Informationen am besten nutzt und so seien SEO Kampagne optimieren kann.
Hier gehts zum Artikel auf englischer Sprache.
21.08.2015: 7 Chancen für eine bessere Suchmaschinenoptimierung
Aleyda Solis hat auf searchengineland einen tollen Artikel geschrieben, wie man mit dem eigenen SEO Audit 7 Chancen zur Verbesserung nutzen kann. Dazu nutzt sie ziemlich viele Tools unter anderem auch Onpage.org, Sistrix und Screaming Frog. Anhand von sieben konkreten Beispielen wird aufgezeigt, wie man an Daten rankommt, die super Optimierungsmöglichkeiten bieten.
Folgende 7 Punkte werden behandelt:
1. Crawling Budget, welches mit nicht indexierten Seiten vergeutet wird.
2. Welche Seiten mit hoher Sichtbarkeit werden weitergeleitet oder haben einen (weiterführenden) Canonical Tag?
3. Kleine CTR oder hohe Bounce Rate bei sehr gut rankenden Seiten.
4. Speedoptimierungsmöglichkeiten bei gut besuchten Seiten und Seiten mit guter Conversions-Rate.
5. In welchen Abfragen mit viel qualitativ hochwertigen Traffic-Segment liegt der Wettbewerb vor Euch?
6. Welche organische Landingpage ist intern nicht verlinkt oder nur über die Sitemap zu erreichen?
7. Welche Veränderungen bringt Euch eine Steigerung bei Universal-Rankings?
Das besondere an diesem Artikel ist, dass die Fragen direkt mit den jeweiligen Tools beantwortet werden und aufgezeigt wird, wie man selber an die Daten kommt. Ein toller Artikel für jeden, der sich für SEO interessiert.
31.07.2015: Google indexiert mehr URLs
Glenn Gabe viel eine massive Steigerung der Indexierungen auf. Er fragte daraufhin via Twitter heute bei Gary Illyes (Google) nach.
Sinngemäß antwortet Gary, dass es eine Standardänderung seitens Google ist und bestätigt, dass Sie nun überall und global mehr URLs indexieren können.
Er bestätigt auf weitere Nachfrage auch, dass es nun möglich ist, unselektierte Dokumente zu selektiertieren. Damit ist der Ausschlag nach oben bei Aleyda Sollis erklärt.
Ranking Änderungen?
Insgesamt ist dies eine interessante News, da mehr Seiten im Index auch bedeuten dürften, dass sich die Rankings verschieben werden. Diesbezüglich ist es in den Foren etc. derzeit aber noch sehr leise. Wie sieht es bei Euch aus, habt ihr mehr Seiten im Index und hat sich an den Rankings schon etwas signifikant geändert? Eure Meinung interessiert uns, einfach als Kommentar oder im Forum.
29.07.2015: Internationale Domains arbeiten besser
Die Kollegen von rankingCHECK haben eine spannende Studie veröffentlicht. Die Frage, die sie sich zu Beginn stellten, ist für SEOs von großem Interesse. Sie wollten herausfinden, was für einen international agierenden Kunden besser ist: Eine .com Domain für alle Länder oder einzelne Länderseiten. Die Studie zeigt eindeutig, dass die gebündelte .com Seite die bessere Variante darstellt. So hat sich der organische Traffic für alle bislang umgezogenen Seiten deutlich verbessert.
Alle Seiten profitieren von den internationalen Links
Zudem sprechen die rankingCHECK Experten an, dass bei der zusammengefassten Variante jede Seite von den internationalen Links profitiert – eine Taktik, die durch John Mueller’s Aussage im Hangout vom 03.07.2015 bestätigt wird:
Frage: “Bei einer .com Domain mit englischen und deutschen Inhalten: Werden die deutschen Inhalte von den englischen Links profitieren und umgekehrt?”
Antwort: “Ja, natürlich. Wenn eine Seite verschiedene Inhalte und Linkarten bietet, dann wird die Seite auf lange Sicht besser werden wenn ihr bekannter werdet. Ihr müsst nur darauf achten, die verschiedensprachigen Inhalte auf unterschiedliche URLs zu packen.”
Eine starke Seite ist die beste Variante
Auf der Grundlage dieser ausführlichen Studie empfiehlt das Team von rankingCHECK, wenn möglich auf eine einzige internationale Webseite zu setzen. Auch dies steht im Einklang mit John Mueller’s Empfehlungen, die er unter anderem im Hangout am 17.06.2015 zum Ausdruck brachte:
Frage: “Wir haben zwei Webseiten, die wir gerne verbessern und vermischen würden. Bisher haben wir nicht viel Content, vor allem bei der zweiten Seite. Was empfiehlst du?”
Antwort: “Ich bin immer dafür, Inhalte auf einer wirklich starken Webseite zu sammeln. Sprecht ihr verschiedene Märkte an, dann mag es nicht gehen, aber es hört sich so an, als würden eure Seiten dieselbe Zielgruppe ansprechen. Also kombiniert es zu einer starken Seite, das wird kurzfristig vielleicht schwierig, wird euch langfristig aber helfen. Redirecten von der anderen Seite hilft dabei.”
Das zeigt, dass eine einzige starke Webseite für international agierende Unternehmen immer die beste Variante darstellt. Dies kann also als absolute Handlungsempfehlung gesehen werden – so lange es von den Inhalten und Zielgruppen der Seite(n) her Sinn macht.
22.07.2015: Wie Google die neuen Top Level Domains behandelt
John Mueller hat in einem Blogpost noch einmal dargelegt, wie Google die neuen Top Level Domains (TLDs) behandeln wird.
Er sagt, dass das Keyword in der TLD weder Vorteile noch Nachteile bringt. Internationalisierte Domainnamen können von Google erkannt werden. Marken-TLDs werden genauso genutzt wie andere TLDs und bringen daher keine Vorteile. Gleiches gilt für die regionalen TLDs. Lediglich echte country code TLDs (wie .uk) werden als relevant für das entsprechende Land erkannt.
Mit dieser Zusammenfassung tut John sicher Webmastern auf der ganzen Welt einen großen Gefallen – denn die Verwirrung in Bezug auf Top Level Domains scheint groß zu sein. Bereits im Webmaster Hangout vom 30.06. wurde das Thema entsprechend ausführlich behandelt. Hier daher noch einmal die damalige Diskussion im Wortlaut.
Diskussion aus dem Hangout
Frage: Welche Domain hat für ein Keyword wie “Example Guru” einen höheren Rankingfaktor: example.guru oder example-guru.com?
Antwort: Wir beziehen Top Level Domains nicht in das Ranking mit ein, daher würde man hier keine großen Unterschiede sehen. Nehmt einen passenden Namen für eure Inhalte, ob das Keyword enthalten ist spielt keine Rolle.
Frage: Werden alle dieser TLDs gleich behandelt? Weil manche von ihnen, wie .travel, sind sehr schwer zu bekommen. Ist es Google also wirklich egal?
Antwort: Ja, es ist uns egal.Wir behandeln sie wie andere TLDs. Das trifft auch auf die neuen Städteendungen wie .nyc zu. Wenn wir auf lange Sicht merken, dass diese starke lokale Signale senden, dann ändert sich dieser Ansatz vielleicht – aber ich glaube nicht, dass das bald passieren könnte. Wenn ihr einen komplizierten Domaintitel habt, dann macht es vielleicht Sinn eine neue TLD zu erwerben – aber tut das nicht aus reinen SEO-Gesichtspunkten.
21.07.2015: noindex,follow Seiten in die xml-Sitemap?
Im Abakus Forum gab es gestern Nachmittag eine interessante Frage.
HALLO ZUSAMMEN,
HALTET IHR ES FÜR SINNVOLL AUCH DIE “NOINDEX,FOLLOW” URLS MIT IN DIE XML-SITEMAP AUFZUNEHMEN?
LAUT GOOGLE’S DEFINITION GEHT ES BEI DER SITEMAP JA NUR UM DAS BESSERE CRAWLING UND NICHT UM DIE INDEXIERUNG:
Suchmaschinen-Webcrawler wie der Googlebot lesen diese Datei, um Ihre Website intelligenter crawlen zu können.
QUELLE.HTTPS://SUPPORT.GOOGLE.COM/WEBMASTERS/ANSWER/156184?HL=DE
Zu erst dachte ich, Moment da kann doch was nicht stimmen, dass macht doch keinen Sinn. Liest man sich aber die Google Hilfe durch, dann kann man das durchaus wirklich so verstehen. Seiten die ich in gecrawlt haben möchte, aber nicht im Index, nun rein nehmen oder nicht? Ich habe John Mueller auf Google+ dann gefragt und diese Antwort erhalten:
John zieht das Pferd sogar von hinten auf und sagt, dass man hiermit sogar eine schnellere De-Indexierung erreichen könnte eventuell (sehr guter Gedankenansatz!) Ansonsten weißt er aber darauf hin, dass in die Sitemap dann wirklich nur Seiten sollen die auch indexiert werden.
Vielen Dank an John der Nachts um halb eins die Frage noch beantwortet hat ?
07.07.2015: Probieren geht über studieren
Gary Illyes empfiehlt, dass Webseitenbetreiber und SEOs Dinge selbst ausprobieren sollen – dies habe den besten Lerneffekt. Er antwortete dies auf die Frage nach einem HSTS Setup.
Selbstverständlich kann man Sachen nur wirklich lernen, wenn man sie selbst aktiv durchführt. Gleiches gilt für das Erkennen der Auswirkungen von Maßnahmen. Die Empfehlung ist jedoch problematisch, wenn nun Webseitenbetreiber ohne Fachwissen damit anfangen, Dinge wie eine HSTS-Umsetzung zu beginnen. Und auch in anderen Bereichen braucht es oft nur wenige Klicks an der falschen Stell, um für langfristigen Schaden zu sorgen – Schaden, von dem sich die Webseite unter Umständen nicht so schnell erholen wird.
Lerneffekt dank Testseiten
Entsprechend ist es für den Lerneffekt immer sinnvoll, eigens dafür angefertigte Seiten zu nutzen. Auf diesem Weg kann man verhindern, dass die eigene Firmenseite (oder noch schlimmer, eine Kundenseite) aufgrund eines Experiments irreparablen Schaden nimmt. Der Aufbau von entsprechenden Testseiten ist daher sehr zu empfehlen.
Mit Hilfe solcher Seiten kann man nicht nur lernen und den Erfolg von Maßnahmen für sich selbst testen, sondern selbstverständlich auch die Grundlage für spannende SEO-Fachartikel schaffen. Es kann auch nicht schaden, die gewonnen Daten in solchen Fällen anderen Experten zugänglich zu machen, da diese vielleicht noch andere Muster erkennen können.
02.07.2015: URLs sollten immer in der Sprache des Inhalts sein
Im indischen English / Hindi Webmaster Hangout wurde die Frage gestellt, in welcher Sprache man die URL eines Beitrages halten sollte – die Antwort von Syed Malik ist eindeutig: Die URL sollte immer in derselben Sprache sein wie der Inhalt. Es gebe zwar keine Rankingverluste für URLs in anderen Sprachen, aber die User Experience sei bei einer einheitlichen Nutzung der Sprache am besten. Es bringt daher für Webseitenbetreiber keinesfalls Vorteile, sich durch englische URLs eine Internationalisierung der Inhalte zu erhoffen.
Frage:
Was empfiehlt Google als URL Struktur für Seiten in lokaler Sprache? Sollten sie in der lokalen Sprache oder in Englisch gehalten werden?
Antwort:
Ich denke das optimale Szenario ist, wenn ihr eure URLs in derselben Sprache habt wie eure Inhalte. Dies hat mehrere Gründe. Die URL ist zum einen auch in den Suchergebnissen und im Browser sichtbar. Zum anderen greifen viele Nutzer auf eure Seite zu, indem sie die URL händisch eintippen. Wenn ihr also eure URL in derselben Sprache habt, ist es eine gute User Experience für den lokalen Nutzer. Es ist momentan jedoch kein Problem für Google, wenn ihr nur englische URLs habt – dies hat keinen Einfluss auf das Ranking. Aber ich denke, dass es auf lange Sicht besser ist, wenn ihr eure URLs in der Landessprache verfasst.
Hier ist die Aussage im englischen Wortlaut (bei 46:38):
25.06.2015: Doppelrankings
Felix Meyer schreibt auf Seokratie über die Anzeige von Doppelrankings in den Suchergebnissen. Er analysiert, wie sich dies auf die Performance der Seite auswirkt – seine kompetenten Ausführungen wollen wir euch nicht vorenthalten.
Zunächst stellt er fest, dass sich ein Doppelranking dazu führt, dass die erste URL in den Rankings abstürzt. Hier greift das Prinzip der Kannibalisierung – die Seiten schaden sich also gegenseitig.
Die Klickrate bleibt hingegen in dem von ihm getesteten Beispiel gleich, hier schadet das Doppelranking also nicht.
Daraus ergibt sich, dass zwar der Traffic gleich bleibt, das Ranking sich allerdings verschlechtert. Man sollte also dafür sorgen, dass künftig nur noch die gewünschte / erfolgreichere / bessere URL angezeigt wird. Es kann zwar Themen geben, wo ein Doppelranking sinnvoll ist – beispielsweise bei zwei Unterbegriffen eines größeren Oberbegriffs – aber zumeist ist das Vorhandensein von Doppelrankings ein wichtiges Anzeichen dafür, die Seitenarchitektur und die Seiteninhalte zu überarbeiten.
Felix Meyer’s sachdienliche Analyse ist unbedingt lesenswert. Er filtert zurecht heraus, dass Doppelrankings als das Ranking negativ beeinflussen und daher (fast) immer vermieden werden sollten.
25.06.2015: Wie man einen Blog promotet
Sergej Ryan Fischer hat auf dem affenblog einen sehr lesenswerten Artikel zum Thema Blogpromotion verfasst. Er listet hier seine 5 besten Tipps, um mit dem eigenen Blog erfolgreich zu sein – „Content ist King. Aber Promotion ist die Queen:“
1. Verzahne verschiedene Kanäle. Sei per Mail und Social Media erreichbar, werden durch Suchmaschinen und Social Media entdeckt und mache deine Leser durch Suchmaschinen und E-Mail auf neue Inhalte aufmerksam.
2. Der erste Eindruck entscheidet, es ist also wichtig, spannende Betreffzeilen und Überschriften zu wählen sowie ansprechende (Vorschau-) Bilder anzuzeigen. Dies bringt Menschen dazu, auf die Artikel zu klicken.
3. Baue Beziehungen zu Lesern und anderen Bloggern auf, um mit einer lebendigen Community in Kontakt zu stehen. Dies gelingt durch Offenheit und Aktivität.
4. Schreibe mit und über Konkurrenten, um weitere interessante Inhalte zu generieren. Dies steigert auch den eigenen Ruf.
5. Nutze Tools wie Google Analytics, um deine Erfolge und Misserfolge herauszufinden und zu analysieren. Nur so kann der eigene Auftritt stets optimiert werden.
Grundsätzlich gibt Fischer zu bedenken, dass stets die Überschrift und der erste Satz entscheidend sind, um das Interesse des Lesers zu wecken.
In eine ähnliche Kerbe schlägt auch Adam Stetzer. Er klagt an, dass Google es kleinen Unternehmen schwer macht, mit ihrem guten Content auch zu ranken. Er schlägt daher vor, Werbung durch Gastartikel und den entsprechenden Linkaufbau zu unterstützen, da dies der einzige Weg für unbekannte Anbieter sei, sich erfolgreich am Markt zu positionieren.
Beiden Autoren sind überaus lehrreiche Posts gelungen – daher legen wir euch dringend ans Herz, diese in ihrer Gänze zu lesen. Es ist immer spannend zu sehen, wenn Autoren Artikel schreiben, die wirklich zum Nachdenken über den aktuellen Stand der SEO-Szene anregen.
25.06.2015: Wie Google Klicks nutzt
Auf der SMX Advanced hat Gary Illyes einiges zum Thema Klicks erzählt. Hier also die offizielle Google-Version davon, wie die Suchmaschine mit Klicks umgeht.
Zum einen werden laut Illyes Klickmanipulationen immer besser erkannt. Entsprechend wird die Durchklickrate mit Vorsicht genossen. Dies ist jedoch in der Praxis ein schwieriges Thema, weshalb man bei betrügerischem Klickverhalten selbstverständlich immer wachsam sein sollte. Auch ist es für viele SEOs und Webmaster schwer zu glauben, dass die CTR tatsächlich keinen Einfluss auf das Ranking hat. Diese Diskussion wird also auch in ZUukunft noch geführt werden.
Die Personalisierung hingegen ist ein wichtiger Faktor, den Google zur Verbesserung der Nutzererfahrung heranzieht. Sucht jemand nach einem Wort, dass zwei sinnvolle Bedeutungen hat, kann Google mittlerweile nachfragen, welche von beiden gewollt ist. Durch die Auswahl einer Möglichkeit wird Google in Zukunft davon ausgehen, dass bei derselben Suche auch immer dieselbe Begriffsbedeutung gemeint ist.
Klicks können also an gewissen Stellen einen Einfluss haben, jedoch ist ihr übergeordneter Einfluss auf das Ranking scheinbar begrenzt. Dies kann sich bei Google jedoch auch schnell wieder ändern – oder wird nur offiziell verlautbart um Klickmanipulationen einzudämmen.
23.06.2015: Wie können SEOs heute den Long Tail nutzen?
Search Engine Roundtable hatte vor kurzem gefragt, wie man heutzutage noch den Long Tail vernünftig nutzen kann. Schon im letzten Monat hat Mitchell Wright seine Sicht der Dinge dargelegt, die wir euch nicht vorenthalten möchten.
Er sieht die semantische Suche als nächste Evolutionsstufe des Long Tail Keyword. Hier wird eine ganze Frage in das Suchfeld eingegeben, für die Google entsprechende Ergebnisse ausgibt. In diesem Zusammenhang wird der Schritt weg vom einzelnen Keyword, hin zur ganzheitlich erfassten Frage vollzogen – dies ist auch im Hinblick auf Now on Tap äußerst relevant.
Mit semantischer Suche und Now on Tap Sprachsuche beginnt der Dialog mit der Suchmaschine. Der Nutzer fragt in ganzen Sätzen, und die Maschine antwortet mit den gewünschten Inhalten. Dies ist möglich, da Inhalte ebenfalls semantisch erfasst und analysiert werden – der Lernprozess der Suchmaschine schreitet also voran.
Laut Wright bedeutet dies das Ende der Keyworddichte – und den Beginn eines Zeitalters, in dem der Long Tail durch themengerechte Inhalte erreicht wird. Diese Inhalte könnten daher für mehrere ähnliche Keywords identisch ranken, auch wenn gewisse spezifische Keywords gar nicht oft vorkommen. Wright’s Empfehlung ist daher, einfach gute Inhalte zu produzieren – diese würden dann ganz von selbst für die entsprechenden semantischen Fragen und Long Tails ranken.
Wright schlägt damit in die gleiche Kerbe wie viele andere moderne SEOs: Gute Inhalte sind alles. Keywords sind zwar wichtig, es geht jedoch nichts über den Informationsgehalt und die Einzigartigkeit der Inhalte. Nur wenn diese Voraussetzungen gegeben sind, wird eine Seite vernünftig ranken.
22.06.2015: YouTube empfiehlt Augenzeugenberichte
YouTube startet mit Newswire ein Portal, das Videos von Augenzeugen geordnet darstellt und empfiehlt. Dies geschieht in Zusammenarbeit mit der sozialen Nachrichtenagentur Storyful.
Das Konzept ist einfach und sinnvoll. Immer öfter werden spontan aufgenommene Videos von Augenzeugen für die Berichterstattung genutzt. Selbst Fernsehsendungen wie die Tagesschau behelfen sich regelmäßig mit privaten Videos unter der Quellenangabe „YouTube“. Auf Newswire kann YouTube den wirklich guten und informativen Videos aus diesem Bereich nun eine entsprechende Plattform bieten.
Es werden hier jedoch nicht einfach die Videos mit den meisten Klicks gesammelt. Google hat sich redaktionelle Unterstützung von Storyful, einer Nachrichtenagentur für die soziale Sphäre, geholt. Diese sichten die vorhandenen Dateien und fügen Sie von der Originalquelle ein. Damit ist eine redaktionelle Kontrolle gegeben, die auch zur Verifizierung der Echtheit des Materials dienen sollte.
Dieses Konzept kann über kurz oder lang den Konsum von aktuellen Nachrichten grundlegend verändern. Beispielsweise dürfte es für SEOs immer schwieriger werden, mit Nachrichtenseiten im politischen, wirtschaftlichen oder sportlichen zu ranken. Gerade die jüngeren Generationen schauen bekanntermaßen lieber Videos – und bilden sich selbst eine Meinung – als redaktionell vorgeschriebene Texte zu lesen. Dieser Markt dürfte von Newswire angesprochen werden und für andere Nachrichtenseiten längerfristig schwieriger zu erreichen sein. Auf der anderen Seite kann dieser Dienst die Arbeit von Journalisten jedoch weiter vereinfachen.
Diese Potentiale zeigen, dass YouTube hier eine der spannendsten Neuerungen des Jahres gelungen ist. Und trotz der potentiellen Probleme sind wir sicher, dass auch SEOs einen Weg finden werden, diesen Dienst zu ihrem Vorteil zu nutzen.
21.06.2015: HTML Validierung ist nicht nötig, aber …
John Mueller hat auf Google+ die Frage beantwortet, ob eine Seite ohne HTML Validierung auch ranken kann: Sie kann, aber …! Hier seine Aussage im (übersetzten) Wortlaut:
„HTML Validierung und die Google Suche … Validierung ist zum crawlen, indexieren und ranken nicht nötig – das haben wir auch schon mehrfach gesagt. Aber, wenn ihr mit Meta-Tags, strukturierten Daten oder Link-Elementen (wenn zum Beispiel euer hreflang Markup nicht korrekt erkannt wird) Probleme habt, kann die Nutzung eines HTML Validators euch manchmal auf die Probleme in eurem Markup aufmerksam machen.”
HTML Validatoren können Seitenprobleme erkennen
“Ein Beispiel: Kürzlich hatte eine Seite versehentlich ein Banner im HEAD der Seite. Das mag im Browser ok aussehen, bricht aber das Markup im HEAD und führt dazu, dass wir den Rest vielleicht ignorieren. Ein HTML Validator kann das für euch herausfinden. Sie sind nicht perfekt, aber sie helfen euch, näher an ein sauberes Markup zu kommen. Das wiederum macht es einfacher, die Meta-Daten eurer Seite automatisch zu extrahieren.
Wenn ich einen brauche, nutze ich persönlich https://validator.w3.org/ – es gibt viele Möglichkeiten.“
Matt Cutts zum selben Thema
Darüber hinaus verweist John auf ein Matt Cutts Video, in dem Matt und Danny Sullivan dieses Thema im Jahr 2011 behandeln. Interessant ist hier der Vergleich, warum auch fehlerhafte HTML gecrawlt und gerankt wird: Google kann die Seite trotzdem verstehen, ebenso wie Menschen auch Sätze verstehen können, die eine fehlerhafte Grammatik aufweisen. Daher sollten solche Seiten, trotz aller Fehler, immer zum crawlen freigegeben werden, da Nutzer ansonsten hilfreiche Inhalte verpassen könnten.
Das Video in voller Länge:
18.06.2015: Onepager am Beispiel privatdetektiv.de
SEO-Trainee.de hat einen tollen Bericht über die Entwicklung und Entstehung vom Onepage-Projekt privatdetektiv.de gebloggt.
http://www.seo-trainee.de/privatdetektiv-de-aufbau-und-entwicklung-eines-onepagers/
Besonders Interessant sind zwei Aspekte.
1) Die Einbindung von Google Maps mit Auswahlfunktion zur örtlichen Lokalisierung brachte einen Nachweisbaren Anstieg, der aber relativ schnell wieder verschwand.
2) Erst jetzt nach einem Jahr kommt die Webseite trotz Keyworddomain erst so richtig zum laufen.
Auch die Kosten sind nicht zu verachten. Es steckt schon sehr viel Zeit und Mühe drin. Alleine die Grafiken, die wirklich sehenswert sind und InHouse produziert wurden (Siehe Beispielbild oben) sind der Hammer!
Aber liebe SEO-Trainees wir haben da noch ein paar Fragen:
1) Wieso wurde nicht eine Datenbank eingerichtet mit lokalen Unternehmen? Viele die auf die Seite kommen werden wohl auch auf der Suche nach einer Detektei sein? Hier könnte man das gesamte Projekt auch monetisieren. Stand so etwas zur Diskussion, wenn ja wieso wurde es nicht durchgeführt.
2) Habt ihr bemerkt ob einzelne Abschnitte extra Ranken die ihr in der Inhaltsagabe aufgeführt habt mit Anker. Wie wurden diese eingebaut, habt ihr ein Plugin benutzt?
3) Was plant ihr weiter mit der Domain?
12.06.2015: Die Relevanz der URL Struktur
Auf der Search Marketing Expo Advanced hat Google’s Gary Illyes einige Hinweise im Hinblick auf eine gute URL Struktur gegeben. Seine Aussagen waren folgende:
Die Länge der URL ist Google egal, solange das http Limit von 2083 Zeichen nicht überschritten wird.
Die Struktur ist wichtig für das Finden einer Seite, stellt jedoch keinen Rankingfaktor dar. Illyes gibt jedoch zu bedenken, dass alles, was in der Struktur weit hinten ist, von Google als unwichtiger eingestuft wird und daher schlechter gefunden werden kann.
Illyes’ Antwort im Hinblick auf Keywords in der URL war ein sarkastisches „stopft so viele rein wie möglich“. Man kann also davon ausgehen, dass viele Keywords in der URL keinen positiven Rankingeffekt haben.
Keine Rankingvorteile
Gary Illyes wies erneut darauf hin, dass es keine Rankingvorteile durch die URL-Struktur gibt. Webseitenbetreiber sollten also einfach eine Struktur wählen, die so kurz wie möglich ist und für ihre Seite Sinn macht.
10.06.2015: Yelp gegen gekaufte Bewertungen
Die lokale Unternehmenssuche Yelp reagiert mit harter Hand auf gekaufte Bewertungen. Das Portal, auf dem man Geschäfte und Firmen aus dem Umkreis suchen, finden und bewerten kann, zeigt nun statt den unehrlichen Bewertungen Beweise für den Betrugsversuch an. Das geschieht meist in der Form von Screenshots von öffentlichen Ausschreibungen nach dem System ‚Geld gegen Bewertung‘, und lässt die entsprechenden Firmen naturgemäß in einem äußerst schlechten Licht dastehen. Diese Neuerung gilt bisher vor allem für die englische Version des Dienstes, entsprechende Screenshots findet man bei Search Engine Land (siehe Quelle).
Der Kampf gegen Bewertungsbetrug
Yelp macht mit diesem Vorgehen einen großen Schritt in die richtige Richtung. Gekaufte Bewertungen sind ein Grundübel der Online-Bewertungs-Portale, und es ist nur gerecht, dieses Vorgehen (bei stichhaltigen Beweisen) auch für die Kunden öffentlich zu machen: Interne Abmahnungen zeigen meist keine ausreichende Wirkung, aber das öffentliche Anprangern mag den einen oder anderen vor dem Kaufen von Bewertungen zurückschrecken lassen. Natürlich kann ein Anbieter wie Yelp nur einen kleinen Teil der gekauften Reviews überhaupt finden, da nicht jede Firma mit öffentlichen Gesuchen arbeiten wird. Nichtsdestotrotz ist dieses Vorgehen ein guter Anfang, um betrügerische Bewertungen einzudämmen.
08.06.2015: Die Zukunft des SEO
Der Bereich der Suchmaschinenoptimierung verändert sich ständig. Auf SEO-Südwest hat sich Christian Kunz nun Gedanken über die Zukunft des SEO gemacht. Dabei geht es natürlich um Content, Backlinks und die Ladegeschwindigkeit von Websites.
Wer sich selbst auch schon häufiger gefragt hat, in welche Richtung sich die SEo-Branche bewegt, findet in diesem Artikel einige spannende Ideen. So kommt Kunz zu einer ganz einfachen Schlussfolgerung – nur wer seine Nutzer glücklich macht, kann auch mit seiner Seite Erfolg haben.
Ein wirklich sehr lesenswerter Artikel. Schaut mal rein.
01.06.2015: Google’s Suchmetriken
Auf Search Engine Land hat sich Barbara Starr sehr ausführlich mit den Suchkategorien von Google beschäftigt. Ihr Artikel ist so lesenswert, dass wir ihre Beispiele auf die deutsche Suche angewandt haben.
Ihr Text (und damit auch dieser Artikel) basiert auf dem Google Patent “Ranking search results based on entitity metrics”. Dieses Patent stellt heraus, dass sich Suchalgorithmen verschiedene Daten (Rankingfaktoren) ansehen und diese dann nach Relevanz sortieren. Dies wiederum beeinflusst die Positionierung in den organischen Suchergebnissen. Starr unterstreicht, dass viele verschiedene Datenquellen genutzt werden, darunter auch strukturierte Daten einer Website. Der Patenttext nennt vier zentrale Kennzahlen (metrics), die das Ranking beeinflussen – es ist jedoch davon auszugehen, dass diese nur ein kleiner Teil des Ganzen sind.
1. Die Verwandschaftsmetrik
Oft gehört ein Suchbegriff in eine Oberkategorie, der auch viele andere Suchbegriffe angehören. Beispielsweise passt der Begriff “Helmut Schmidt” in die Kategorie “Ehemaliger Bundeskanzler”. Google kann daher herausfinden, inwiefern gewisse Begriffe zusammengehören und entsprechende Empfehlungen für ähnliche Suchen unterbreiten. Dies wird hier durch die Vorschläge “Helmut Kohl” und “Willy Brandt” verdeutlicht. Weitere Vorschläge gelten Schmidts Privatleben und seiner politischen Epoche.
2. Die Bedeutungsmetrik
Ein Begriff kann meist in mehrere Kategorien eingeteilt werden. Aufgrund der Sucherfahrungen kann Google jedoch herausfinden, welche Kategorie die passendste und sinnvollste ist. Diese wird dann angezeigt. Beispielsweise passt der Suchbegriff “Angela Merkel” in die Kategorien “Bundeskanzlerin”, “Parteivorsitzende der CDU”, “Physikerin” oder auch “Berühmtheit”. In der Suche wird jedoch gleich der erstgenannte angezeigt.
Gleichsam kann Google für eine Kategorie herausfinden, welcher Suchbegriff der sinnvollste ist. Zum Beispiel passen für den Suchbegriff “Deutscher Bundeskanzler” sowohl “Helmut Schmidt” als auch “Angela Merkel” (und einige andere) – in der Suche wird jedoch sofort die amtierende Kanzlerin angezeigt.
3. & 4. Die Beitragsmetrik und die Preismetrik
Bei Brands und berühmten Persönlichkeiten nutzt Google zudem Kritiken und andere Beiträge von Internetnutzern, um die Anzeige in den Suchergebnissen zu verbessern. Damit werden nicht nur ähnliche Suchbegriffe angezeigt, sondern auch die Meilensteine in der Karriere einer Person. Anhand des Beispiels “Eric Clapton” sieht man, dass sowohl seine Lieder als auch Alben in einer Reihenfolge dargestellt werden.
Darüber hinaus werden Menschen als wichtiger empfunden, wenn sie Preise (wie den Oscar oder den Grammy) gewonnen haben. Dies fließt entsprechend in die Darstellung der Person ein.
Schlussbemerkung
Zum Abschluss Ihres außerordentlich hilfreichen Artikels stellt Barbara Starr fest, dass für die verschiedenen Anzeigenbereiche in den Suchergebnissen sicherlich unterschiedliche Algorithmen genutzt werden. Die Suche mit Google ist daher mittlerweile ein hoch-komplexes Netzwerk von Algorithmen und nimmt immer ausführlichere Formen an.
01.06.2015: Ist Branding ein Faktor für das Google-Ranking?
30.04.2014: Matt Cutts: Wie wählt Google Titel für die Suchergebnisse aus?
Matt Cutts beantwortet im neuen Google Webmaster Help Video mehrere Fragen bezüglich der Titel, die von Google in den Google Suchergebnissen verwendet werden. Die Fragen lauteten wie folgt:
1) “Welche Kriterien nutzt Google, um den Titel zu ändern, der in den SERPs, abhängig von der Sucheingabe, angezeigt wird? Wird die Auswahl von Schema-Daten beeinflusst? Haben Überschriften (H1, H2) mehr Gewicht?”
2) “Warum zeigen die Google Suchergebnisse nicht den aktuellen Meta Titel der Webseite an? Statt des Meta Titels wird in den Suchergebnissen die H1 Überschrift der HTML Seite angezeigt.”
Matt Cutts erklärte dazu Folgendes:
Auswahl der Titel für die Suchergebnisse
Google versucht immer einen Titel zu wählen, der eine präzise Beschreibung der Seite darstellt. Dabei wird auch darauf geachtet, dass dieser Titel auch für die aktuelle Suchanfrage relevant ist. Einige der Kriterien für die Auswahl der Titel sind:
- Länge der Titel
- Inhalt: Der Titel muss eine gute Beschreibung der Seite sein
- Der Titel muss für die Suchanfrage passend sein
Wenn der vorhandene Titel diese Kriterien erfüllt, wird er in den Google Suchergebnissen angezeigt.
Warum verwendet Google manchmal einen anderen Titel?
Wenn die oben genannten Kriterien nicht erfüllt werden, wählt Google einen anderen Titel aus. Matt Cutts begründet dies damit, dass Titel, die keine gute Beschreibung der Seite und unpassend für die Suchanfrage sind, vermutlich nicht vom Suchenden angeklickt werden. Deswegen wählt Google dann einen alternativen Titel aus, der in den Suchergebnissen erscheint.
Wie generiert Google einen alternativen Titel?
- Der Inhalt wird entweder aus dem Content der betreffenden Seite generiert oder
- Google schaut sich Links an, die auf die Seite verweisen und nutzt Texte von diesen Seiten oder
- Google nutzt das Open Directory Project, um einen passenden Titel zu finden
Matt Cutts betont, dass dies immer geschieht, um den bestmöglichen Titel für das Suchergebnis zu finden. Der Titel muss dem Nutzer schließlich verständlich machen, was er oder sie auf der Seite vorfinden wird.
Wie kann man Google dazu bringen, den vorgegebenen Titel zu nutzen?
Der Meta Titel muss so formuliert werden, dass er den Inhalt der Seite wiederspiegelt und auch für die Suchanfrage passend ist. Dementsprechend sollte bei der Erstellung der Titel nicht nur der Inhalt der Seite wiedergegeben werden, sondern auch bedacht werden, wonach der Nutzer suchen könnte.
Der Meta Titel muss so formuliert werden, dass er den Inhalt der Seite wiederspiegelt und auch für die Suchanfrage passend ist. Dementsprechend sollte bei der Erstellung der Titel nicht nur der Inhalt der Seite wiedergegeben werden, sondern auch bedacht werden, wonach der Nutzer suchen könnte.
22.10.2013: Matt Cutts: Unterschied zwischen strong und b Tag?
Heute haben wir wieder das aktuelle Video von Matt Cutts zusammengefasst.
„Hi Matt, bezogen auf SEO, was ist der Unterschied zwischen dem “strong”- und dem “b”-HTML-Tag zur Hervorhebung bestimmter Wörter im Text? Aus Nutzersicht haben beide Tags die gleiche Wirkung (Wörter werden fett dargestellt). Welchen Tag sollten wir unter welchen Umständen nutzen?“
Zuerst einmal sagt Matt Cutts, dass dies ein altes, immer wiederkehrendes Thema ist. Schon 2006 hätte er darauf eine Antwort gegeben, aber er beantworte die Frage jetzt noch einmal: Beide Tags (“strong” und “b”) werden von Google gleichbehandelt, daran habe sich seit 2006 nichts geändert.
Das sei aber schon immer so gewesen. Der HTML-Befehl gestalte sich ein wenig unterschiedlich, aber letztendlich ist es einfach die gleiche Tasse Tee. Das Gleiche gelte bezüglich der Tags für die Kursiv-Schreibung (“em”, “i”). Er erwähnt allerdings ebenfalls, dass das Google Ranking durch die Wahl des Tags beeinflusst wird.
Seine Aussagen erscheinen ein wenig widersprüchlich. Insbesondere, da er am Ende noch einmal herausstellt, dass man sich als SEO keine Sorgen über die Wahl des/der Tags machen sollte, denn soweit er wüsste, macht es für Google keinen Unterschied. Welche Variante auch immer genutzt wird, man sollte einfach bei dem bleiben, was man persönlich präferiert.
15.10.2013: Matt Cutts: Sollten sich Webmaster auf Social Media konzentrieren?
Matt Cutts hat sich wieder einer Frage gestellt:
Shubhamstunter aus Indien hat gefragt: “Seit Google aktiv die Suchergebnisse aktualisiert , ist es schwer geworden Google weiterhin zu vertrauen. Sollte man anfangen sich darauf zu konzentrieren, dass man mehr Klicks durch Social Media als durch die Suchergebnisse bekommt?”
Matt antwortet im aktuellen Video, dass Google schon immer die Algorithmen verändert hat und das dies natürlich auch weiterhin der Fall sein wird. Er sagt, dass es immer schwieriger sein wird, Google zu spammen. Umso kreativer Google seine Algorithmen gestalte, desto schwieriger sei es, die Suchergebnisse zu manipulieren. Das Ziel von Google bleibe immer gleich: Möglichst hochwertige Suchergebnisse zu erzielen.
Bezüglich Social Media sagt Matt, dass es wichtig sei, verschiedene Eisen im Feuer zu haben. Wenn das Google Seitenranking runtergehe, habe man immer noch andere Kanäle, über die man Besucher (und damit Kunden) auf seine Seiten lenken könne. Auch konventionelle Werbung kann sich auszahlen und natürlich Facebook und Twitter. Eine Seite sollte immer über ein rundes Portfolio verfügen, denn es kann immer wieder vorkommen, dass ein Kanal zur Besuchergenerierung ausfällt.
Abschließend sagt er, dass Google immer weiter daran arbeitete, die Suchergebnisse zu verbessern. Webmaster und SEOs sollten deswegen auch immer weiter die Qualität ihres Websiteninhalts verbessern, um weiterhin gut in den Suchergebnisse platziert zu werden.
28.12.2012: SEO 2013, eine Prognose
Ein Jahr geht, das neue Jahr kommt, aber was erwartet uns eigentlich 2013? Google hat im vergangenen Jahr gezeigt, dass es Ihnen ernst ist mit Ihren Richtlinien. Sie haben mit Pinguin und Co. die Webmaster-Welten ordentlich durchgeschüttelt und sind dabei nicht immer „taktvoll“ vorgegangen.
Was erwartet uns 2013?
Die Beantwortung der Frage kann natürlich nur rein spekulativ erfolgen. Dennoch haben wir uns natürlich auch intern darüber unterhalten, was kommen kann und was Google machen wird.
Dabei muss aber auch unterschieden werden, welche Bereiche man prognostizieren möchte, den Google ist ja schon lange nicht mehr nur im Bereich der Suche unterwegs. Wir habend as Feld daher aufgeteilt und wagen erste Vermutungen.
Google in Bezug auf die Suche
- Google wird die Semantik bzw. die semantische Suche weiter ausbauen. Sehr wahrscheinlich wird es dazu kommen, dass es eine Art Markenstatus geben wird, wo spezielle Firmen Vorteile, wie z.B. Firmenlogo als Snippetfoto etc. platzieren dürfen.
- Die regionale Suche wird weiter ausgebaut, es wird aber sichtbarer eine Option geschaffen für den Suchenden, dieses per Klick ausschalten.
- Die Sandbox wird noch schneller Zuschlagen. Seiten werden bei Änderungen nun viel schneller hier landen, dafür nicht mehr so lange.
- Das Linkentwertungstool wird umgestaltet und vereinfacht.
- Google wird verstärkt gegen reine SEO Linkseiten und SEO Werbeseiten vorgehen.
- Der Linkaufbau wird schwieriger aber Effektiver, Google setzt weiterhin sehr stark auf Links.
- Google arbeitet mit SEO Agenturen zusammen und schafft mehr Transparenz für die, welche sich an die Spielregeln halten. (Wunschdenken ^^)
- Der User und sein verhalten rückt immer weiter in den Vordergrund. Verweildauer, Aktivität, Absprungrate und Klickverhalten werden wichtiger.
- Google verabschiedet sich vom Social Media Gedanken als Rankingfaktor und nutzt hier nur noch Google+.
- Google+ und andere Google Produkte wie Google Local werden fokussiert.
- Google startet einen Tab ähnlich wie Blogs, Fotos, Videos, für auf mobile Geräte optimierte Webseiten
- Google Knowledge Graph wird weiter ausgebaut und nun wird hier auch Werbung geschaltet.
- Die organische Suche (Anzeige) verkleinert sich auf 5 pro Seite.
Google allgemein
- Google baut weiterhin sein Service aus. Alle gängigen Vergleichsportale bietet nun Goole selber an und promotet diese auch in der Suche
- Google steigt ins Telekommunikationsgeschäft in immer mehr Ländern ein.
- Business Apps und Anwendungen werden weiter ausgebaut
- Betriebssysteme, Handys und Tabs, der Marktanteil nimmt leicht zu
- Google erleidet erste größere Niederlagen vor Gericht weltweit, welche zu ersten Auswirkungen führen.
- Google kauft mind. 1 größeren Konkurrenten dieses Jahr auf.
Ob das alles so eintrifft steht natürlich in den Sternen. Weitere Ideen? Nutzt die Kommentarfunktion..