Inhaltsverzeichnis
- 27.05.2016: Google zeigt externe Hotelbewertungen
- 26.05.2016: Google sucht einen Webmaster Trends Analyst
- 24.05.2016: API zur Indexierung in Echtzeit
- 20.05.2016: “Auch oft gesucht” jetzt mit Thumbnails
- 12.05.2016: Breitere Ergebnisspalte bei Google
- 11.05.2016: Aktuell keine großen Google-Updates
- 09.05.2016: Automatische Übersetzungen in den SERPs
- 20.04.2016: Stimmung ein zukünftiges Ranking-Signal?
- 05.04.2016: Neue Google Quality Rater Guidelines
- 01.04.2016: Bald keine Google Webmaster Hangouts mehr! Aprilscherz!
- 30.03.2016: Ein neues Google Update seit Dienstag?
- 09.03.2016: Ende der PageRank Toolbar
- 09.03.2016: Neue Google Blogs
- 06.03.2016: Straft Google Amazon Affiliate Seiten ab?
- 26.02.2016: Google Patent für Kampagnen basierend auf Social Voting
- 04.02.2016: Head of Search Amit Singhal verlässt Google
- 22.01.2016: Google und die SERPs
- 22.01.2016: Google als Museum
- 19.01.2016: SEO Wetter Tools sind nicht allwissend
- 14.01.2016: Core-Algorithmus: Die weltweite Bewertung
- 12.01.2016: Google Update? Kein Echtzeit-Penguin!
- 03.12.2015: Google Qualitätsupdate: Phantom III
- 24.11.2015: Live-Blogging Label
- 20.11.2015: Google Search Quality Raters Guide veröffentlicht
- 17.11.2015: Search Quality Raters Guide
- 10.11.2015: Google News und Google Scholar
- 23.10.2015: Google Halloween Update?
- 21.10.2015: Mehrere Google News
- 15.10.2015: Wix-Webseiten sind nicht mehr im Google-Index
- 15.10.2015: Google stoppt Unterstützung für das AJAX Crawling Scheme
- 02.10.2015: Werde Google Trusted Tester
- 30.09.2015: First Click Free Regel geändert
- 24.09.2015: Chrome zum Absturz bringen
- 18.09.2015: E-Mails im Index
- 18.09.2015: G+ Links nicht mehr in den SERPs
- 14.09.2015: Einzeilige Sitelinks
- 09.09.2015: Google Neuigkeiten
- 07.09.2015: Markenstreitigkeiten in der Welt der Suche
- 02.09.2015: Google im Detail
- 02.09.2015: Das neue Google Logo
- 27.08.2015: Google updatet Algorithmus am Indexierungsvorgang
- 18.08.2015: Neue eigenständige Hangouts Seite
- 12.08.2015: Mehr zu Google’s Umstrukturierung
- 11.08.2015: Alphabet ist da
- 07.08.2015: Patent misst die Viewtime
- 04.08.2015: Kein Spamupdate, kein Penguin, keine Updates
- 23.07.2015: Wie steht es um Google’s Verhältnis zu Webseitenbetreibern?
- 16.07.2015: Google sucht einen SEO
- 09.07.2015: Google Weblight macht Seiten leichter
- 29.06.2015: Google’s Zukunft
- 26.06.2015: Google zeigt ähnliche Artikel in den SERPs
- 25.06.2015: Matt Cutts‘ Urlaub dauert noch bis Ende des Jahres
- 25.06.2015: Der Wo-ist-Matt-Cutts-Comic
- 20.06.2015: Newswave Update
- 18.06.2015: MOZ über das “Colossus Update”
- 18.06.2015: Die Zukunft der Google Updates
- 17.06.2015: Es rumpelt wieder
- Edit: 31.05.
- 16.06.2015: Die Google-Algorithmusvorhersage
- 11.06.2015: Neues Google Update?
- 10.06.2015: Chrome will Flash loswerden
- 31.05.2015: Google legt Nutzerzahlen offen
- 29.05.2015: Google Identity Platform
- 25.03.2014: Algorithmischer Penalty oder schlechter Content?
- 20.01.2014: Erstes großes Google Update 2014 !?!
- 06.12.2013: Pagerank Update Dezember
- 07.10.2013: Google installiert MugShot Algorithmus
- 28.09.2013: Meta-Description ausgehebelt, 4 er Reihen möglich
- 05.09.2013: Neues geheime Google Update draußen?
27.05.2016: Google zeigt externe Hotelbewertungen
Google möchte seine Nutzer auf vielen Feldern dazu bewegen, Transaktionen so abzuschließen, dass sie das Angebot des Suchmaschinenkonzerns gar nicht erst verlassen müssen. Gerade bei urlaubsrelevanten Themen, wie zum Beispiel Hotelbuchungen, werden daher immer wieder interessante Neuerungen eingeführt.
Zu wenige Google-Reviews
Ein Problem dabei ist, dass Google selbst nicht so viele Kundenbewertungen vorzeigen kann. Diese werden oft auf anderen Seiten abgegeben, hier kommen zum beispiel TripAdvisor, Expedia oder Booking.com in den Sinn. Viele Nutzer werden dann zusätzlich diese Seiten besuchen, um die Meinungen anderer Nutzer zu lesen.
Und wenn sie schon dabei sind, kehren sie vielleicht gar nicht erst zu Google zurück – sondern führen den Buchungsprozess direkt auf der externen Seite durch. Dies will Google natürlich verhindern. Zu diesem Zweck werden nun nicht mehr nur Google-interne Bewertungen angezeigt.
Bewertungen von anderen Seiten bei Google
Nun zeigt Google hier auch Bewertungen an, die auf Drittseiten abgegeben wurden. Zu den Auserwählten zählen unter anderem Booking.com, Priceline.com und Agoda.com. Diese Daten stammen laut Brad Brewer vor allem von TrustYou, aber auch von Aggregatoren, die einzelne Seiten im Blick haben.
Mit dieser Neuerung kann es Google gelingen, Nutzern direkt im Hotelpanel einen noch größeren Wert zu bieten. Auf der anderen Seite ist nicht zu erwarten, dass die Drittseiten von dieser Neuerung sehr begeistert sein werden. Denn Google tut immer mehr, um diesen Urlaubsseiten das Wasser abzugraben. Fortsetzung folgt bestimmt.
26.05.2016: Google sucht einen Webmaster Trends Analyst
Im letzten Jahr berichteten wir darüber, dass Google einen SEO sucht. Und nun ist ein Job zu vergeben, der unter Umständen noch weitaus interessanter ist. Denn hier bietet Google einen Platz auf der “anderen” Seite – im Google Team, dass für die Arbeit mit Webmastern und SEOs zuständig ist.
Ein glücklicher Bewerber bzw. eine glückliche Bewerberin kann schon bald als Webmaster Trends Analyst starten. Damit würde man in ein illustures Team eintreten, das zurzeit bereits von hilfsbereiten Menschen wie John Mueller, Zineb Ait Bahajji oder Gary Illyes bevölkert wird.
Kein leichter Job
Ein Teil der Aufgabe wäre es dann, mit gestressten Webmastern und neugierigen SEOs zu sprechen. Man muss also darauf vorbereitet sein, dass künftig jeder Halbsatz von Leuten wie uns analysiert werden wird ;-). Der Arbeitsplatz wäre entweder in Zürich oder in Mountain View.
John Mueller hat auf Google+ eine erste Anfrage nach Interessenten gestartet – die offizielle Ausschreibung folgt bald und wird dann hier ergänzt. Er hat jedoch die grundsätzlich gewünschten Fähigkeiten seines neuen Kollegen (und hoffentlich noch lange nicht Nachfolgers) zusammengefasst.
Das wird verlangt
“Wir wollen für unser Team einen weiteren Webmaster Trends Analyst einstellen. Sende mir eine Nachricht, wenn du technische Erfahrung & Wissen über Websites und SEO hast, wenn das Schützen, Unterstützen und Weiterentwickeln des Web deine Leidenschaft ist und wenn du weltweit und Google-Intern mit tollen Leuten darüber sprechen möchtest.”
Interessenten können John bereits bei Google+ anschreiben oder auf die offizielle Ausschreibung warten. Wir sind gespannt, wer das neue Gesicht bei den Webmaster Trends Analysts werden wird – vielleicht ja jemand von euch, der sich in der Szene sogar bereits einen Namen gemacht hat?
24.05.2016: API zur Indexierung in Echtzeit
Google arbeitet immer mehr daran, die organischen Suchergebnisse am Puls der Zeit zu haben. Mit AMP werden Nachrichteninhalte schnell geladen, mit Search Console kann man neue Inhalte an den Index schicken und mit Tweets in den Suchergebnissen werden auch sehr aktuelle Inhalte geliefert.
Indexierung in Echtzeit
In seinem Vortrag auf der Google I/O hat nun Richard Gingras darüber gesprochen, wie Google die organischen Suchergebnisse noch aktueller gestalten möchte. So geht in Kürze eine API in die Beta-Testphase, die das Crawlen von neuen Inhalte erst einmal zweitrangig machen könnte.
Hierbei handelt es sich um eine API, welche neue Inhalte in Echtzeit indexieren wird. Frischer Content würde dann also ohne Verzögerung direkt in den SERPs landen. Dies wäre gerade bei Inhalten mit News-Charakter eine tolle Neuerung im Kampf um gute Rankings und könnte das Aussehen der Suchergebnisse nachhaltig verändern.
Noch ist nicht bekannt, wie diese API im Detail aussehen wird. Auch einen Zeitplan für eine mögliche Veröffentlichung ist noch nicht bekannt – auch wenn sie “bald” kommen soll. Google wird die SEO-Gemeinschaft jedoch auf dem Laufenden halten und rechtzeitig mit neuen News zu diesem Thema versorgen.
20.05.2016: “Auch oft gesucht” jetzt mit Thumbnails
Am Ende der Suchergebnisse weist Google oft auf Dinge hin, die “auch oft gesucht” werden. Damit sollen Nutzer dazu motiviert werden, sich durch weitere Suchergebnisseiten zu klicken und damit im Angebot von Google zu bleiben. Dieses Feature wurde nun erheblichaufgewertet – zumindest optisch.
Denn bislang gab es hier nur ein paar Links, die der Nutzer sich anschauen und bei Gefallen anklicken konnte. Die neue Variante ist nun erheblich ansprechender gestaltet und sollte dafür sorgen, dass mehr Nutzer auf die entsprechenden Links klicken. Denn nun wurden die Links durch Thumbnails ergänzt:
Dieses neue Feature erinnert vom Aussehen und Inhalt stark an die “wird auch oft gesucht” Funktion, die sich am Ende von vielen Knowledge Panels befindet. Wird ein Knowledge Panel mit diesem Feature ausgespielt, so erscheint es nicht noch einmal am Ende der organischen Suchergebnisse.
Diese Funktion kann durchgescrollt werden. Es ist also eine Art Karussell und damit vor allem für die Nutzung auf mobilen Endgeräten geeignet. Möchte man mehr Möglichkeiten erhalten, so kann man einfach auf den entsprechenden Link in der oberen rechten Ecke klicken. Dadurch gelangt man zu einem Bildschirm mit zahlreichen weiteren Suchanfragen:
12.05.2016: Breitere Ergebnisspalte bei Google
UPDATE 25.05.: Bisher nur ein Experiment
Wie Julian Hoffmann von SEO.at herausgefunden hat, handelt es sich bei der breiteren Ergebnisspalte noch nicht um eine endgültige Änderung. Vielmehr ist es bislang eines der vielen Experimente, die Google täglich in den SERPs vornimmt. Auch im letzten Hangout gab John Mueller zu bedenken, dass man noch ausprobiert, um die beste Anordnung zu finden.
UPDATE 18.05.: Auch die mobilen Titles sind nun länger
Wir haben uns im Zuge dieser Umstellung gefragt, wie SEOs darauf reagieren würden, dass die Titles auf dem Desktop eine andere Länge haben als die in der mobilen Version. Und diese Frage hat nun noch einmal neue Nahrung erhalten, allerdings anders, als wir zunächst gedacht hätten. Denn die mobilen Titles wurden nun auf ganze 78 Zeichen verlängert.
Damit sind sie in Zukunft noch einmal länger als die Titles für Desktop Versionen. SEOs haben nun zwei Möglichkeiten: Entweder verschenken sie bei der mobilen Version 8 Zeichen, was sicherlich einem Keyword entspricht, oder sie müssen sich vom responsiven Design verabschieden und eine eigenständige mobile Version erstellen.
Breitere Spalte auf dem Desktop
Google ist gerade dabei, seinen Suchergebnissen ein neues Aussehen zu verpassen. Erst wurde die rechte AdWords Spalte abgeschafft, dann wurden schwarze Links getestet, und nun wird die gesamte Ausrichtung etwas verschoben. Und zwar wird die Ergebnisspalte um einige Pixel verbreitert.
Genauer gesagt vergrößert sich die Spalte, in der die organischen Suchergebnisse stehen, um etwa 100 Pixel. Damit wird der Abstand zwischen den SERPs und der rechten Spalte, in der zum Beispiel der Knowledge Graph erscheint, etwas verkleinert. Ebenso werden die Local Packs und die Featured Snippets verbreitert.
Was bedeutet das?
Dies hat eine Auswirkungen auf die Darstellung der Suchergebnisse. Zunächst werden einige Ergebnisse nun mit weniger Zeilen auskommen. Dadurch nehmen sie weniger Platz weg und erlauben den nachfolgenden Ergebnissen, etwas weiter nach oben zu rutschen.
Zudem können nun längere Meta Daten genutzt werden. Für den Title stehen künftig etwa 70 Zeichen zur Verfügung, während die Description für bis zu 175 Zeichen Platz bietet. Damit ergeben sich für SEOs natürlich einige neue Optimierungsmöglichkeiten, die in den nächsten Wochen und Monaten angegangen werden können.
Das Ganze wurde in den letzten Tagen international ausgerollt. Laut SEO-Südwest ist es seit heute auch in Deutschland zu sehen. Habt ihr die neuen Ergebnisse schon bemerkt? Gefallen sie euch besser oder habt ihr Kritik an dieser Änderung? Lasst es uns in den Kommentaren oder im Forum wissen.
11.05.2016: Aktuell keine großen Google-Updates
05.04.2016: Neue Google Quality Rater Guidelines
Im vergangenen November sorgte Google für eine faustdicke Überraschung. Denn ohne Ankündigung veröffentlichte der Suchmaschinenbetreiber auf einmal die Quality Rater Guidelines – die bis dahin immer streng unter Verschluss gehalten und höchstens einmal geleaked wurden.
Und nun wurden diese Richtlinien einem neuerlichen Update unterzogen, auch diesmal wieder in aller Öffentlichkeit. Wie beim letzten Mal auch hat The SEM Post wieder alle Änderungen – bis hin zur kleinsten Kleinigkeit – dokumentiert. Wir haben euch die wichtigsten Punkte zusammengetragen.
Mehr Qualität – auch durch Anzeigen
Google weist noch deutlicher darauf hin, dass eine hohe Qualität das wichtigste Merkmal einer Website ist. Daher wird nun noch mehr Wert auf die E-A-T-Faktoren gelegt. Diese stehen für Expertise, Authoritativeness, Trustworthiness, also für Expertise, Autorität und Vertrauenswürdigkeit. Wer diese Punkte erfüllt, dürfte erfolgreich sein.
Interessant ist, dass eine hohe Qualität auch durch Werbeanzeigen hervorgerufen werden kann. Denn laut den neuen Richtlinien “können Anzeigen zu einer guten Nutzererfahrung beitragen.” Wichtig ist dabei jedoch, wie sie platziert sind, was sie zum Inhalt haben und wie viele es sind.
Weniger ergänzende Inhalte, mehr Local
Darüber hinaus wird auf ergänzende Inhalte nicht mehr so großer Wert gelegt. Und dies scheint sowohl im positiven als auch im negativen Sinne zu stimmen. Zum anderen wird die Mobilfreundlichkeit weiterhin als ein zentraler Baustein für eine hochwertige Website gesehen.
Lokale Inhalte hingegen rücken immer mehr in den Mittelpunkt. Google bezeichnet diese nun als “Visit-in-Person”, also als Unternehmen, die in der Umgebung liegen und daher persönlich besucht werden können. Dies passt zur Ausweitung der lokalen Ranking-Faktoren, von der wir gestern berichteten.
Was bringen uns diese Richtlinien
Passend zur Veröffentlichung der neuen Richtlinien führte Google’s Paul Haahr bei Twittereine Diskussion mit Bill Slawski. Bill ist bekanntermaßen derjenige, der immer neue Google-Patente findet und unter die Lupe nimmt. Hierbei ist jedoch oft die Frage, inwieweit dies dem normalen SEO weiterhilft.
Paul ist nun der Meinung, dass Bill gute Arbeit leistet und Patente für Interessierte eine gute Quelle sind. Sie bilden jedoch nur einen kleinen Teil ab, da Google auch viele Dinge einsetzt, die nicht extra patentwürdig sind. Zu SEO-Zwecken sind sie also nur bedingt hilfreich – vor allem, wenn man sie mit anderen Quellen vergleicht.
Und als eine dieser Quellen nennt Paul die Quality Rater Guidelines. Diese sind eine “klare Beschreibungen dessen, was Nutzer unserer Meinung nach wollen.” Und auch, wenn sie nicht vollständig sind, sollen sie “den Großteil dessen abbilden, was heutzutage in der Suche passiert.” Daher schlägt Paul vor, “die Richtlinien zu lesen und an die Nutzer zu denken.”
01.04.2016: Bald keine Google Webmaster Hangouts mehr! Aprilscherz!
30.03.2016: Ein neues Google Update seit Dienstag?
09.03.2016: Ende der PageRank Toolbar
Auch wenn dies noch nicht zu allen Webmastern durchgedrungen war – seit längerer Zeit updated Google die Anzeige des PageRank nicht mehr. Jeder, der versucht hat, diesen Wert noch zu optimieren, hatte also keine Chance, etwas zu erreichen.
In den entsprechenden Toolbars wurde bis zuletzt immer der Wert des letzten Updates angezeigt – und dieser war alles, aber nicht aktuell. Um Verwirrungen vorzubeugen hat sich Google nun zu einem weiteren Schritt entschlossen.
So werden die Toolbars nach und nach abgeschaltet. Damit kann man auch die alten Werte nicht mehr sehen. Dies macht Sinn, da unerfahrene Webmaster diese vielleicht als Anhaltspunkt genommen haben – nicht wissend, dass sie nicht mehr aktuell sind.
Für das Ranking wird der PageRank in den Algorithmen weiterhin verwendet. Die Zahlen sind aber nur intern bei Google zu finden und schon seit Jahren nicht mehr offen erhältlich. Daher ändert sich durch diese Abschaffung für Seitenbetreiber nichts am Ranking ihrer Websites.
09.03.2016: Neue Google Blogs
Die Google Blogs sind eine hilfreiche Anlaufstelle, um bei allen Themen rund um die Websuche auf dem neuesten Stand zu bleiben. Doch oft gibt es Blogs, die sich als offizielle Blogs ausgeben – aber keine sind.
Google will diesen Kopisten nun einen Riegel vorschieben. Und ein guter Weg, um dies zu erreichen, sind einheitliche Merkmale aller offiziellen Google Blogs. Hier reicht es nicht, nur ein Logo zu haben.
Daher ändert Google bei allen Blogs nun nach und nach die URL Struktur. So soll erreicht werden, dass die echten Google Blogs immer sofort anhand der URL erkannt werden können. Dank Weiterleitungen werden eure Lesezeichen aber weiterhin funktionieren.
Den Anfang macht der Google Webmaster Central Blog. Dieser ist nun unter webmasters.googleblog.com zu finden. Wir sind gespannt, wann diese Änderungen auch die deutschen Blogs erreichen – denn hilfreich ist diese Umstellung allemal.
06.03.2016: Straft Google Amazon Affiliate Seiten ab?
04.02.2016: Head of Search Amit Singhal verlässt Google
Wir berichten eigentlich selten über Personalfragen bei Google und Co. Aber heute machen wir eine Ausnahme, denn eine der zentralen Figuren der Google Suche verlässt den Konzern.
Amit Singhal, seit 15 Jahren der Kopf der Google Suche, wird seinen Posten zum 26. Februar auf eigenen Wunsch hin aufgeben. Dies bedeutet einen herben personellen Einschnitt für den Marktführer unter den Suchmaschinen.
Ein Vordenker geht …
In seiner Zeit bei Google hat Singhal die Firma stetig vorangebracht und sie zum unangefochtenen Platzhirsch in der Suche gemacht. Sein Einfluss auf alles, was mit der Websuche zu tun hat, kann gar nicht groß genug eingeschätzt werden.
Via Google+ hat er mitgeteilt, dass er sich künftig mehr um seine Familie kümmern möchte. Zudem will er der Gesellschaft etwas zurückgeben und sich verstärkt für soziale und philantropische Projekte engagieren.
… ein anderer kommt
Sein Nachfolger steht indes auch schon fest. Der Schotte John Giannandrea wird den Posten als Head of Search ab März übernehmen. Er hat zuletzt unter anderem an der Entwicklung des Machine Learning Algorithmus Rank Brain mitgearbeitet.
Diese Personalie zeigt daher einmal mehr, wie wichtig das maschinelle Lernen für Google in Zukunft sein wird. Wir können davon ausgehen, dass der neue Chef entsprechende Akzente setzen wird.
22.01.2016: Google und die SERPs
Google-Offizielle haben einige interessante Punkte im Hinblick auf das Crawling und den Timestamp verlauten lassen. Außerdem wird mal wieder eine neue Farbe für Bewertungssterne getestet.
Google crawlt vielleicht langsamer
Es gibt nicht nur den Googlebot – auch zahlreiche andere Bots crawlen das Web auf der Suche nach Informationen. John Mueller wurde nun gefragt, was passiert, wenn zu viele Bots auf einmal eine Seite crawlen wollen.
Im Falle eines solchen Staus kann es passieren, dass der Googlebot langsamer crawlt. Denn wenn der Server bereits langsamer wird, dann passt sich der Googlebot daran an, um den Server nicht zu überlasten. In solchen Fällen kann es dann sinnvoll sein, unwichtigen Bots das Crawlen zu verbieten.
Veröffentlichungsdatum
Bekanntlich ist es möglich, das Veröffentlichungsdatum eines Beitrags mit Hilfe des Timestamp in der Sitemap anzugeben. Doch es ist scheinbar so, dass Google diese Angabenicht zwingend befolgt.
Laut Stacie C. von Google kam es bei diesem Attribut in der Vergangenheit oft zu Missbrauch. Verleger haben es manipuliert, um alte Artikel neu wirken zu lassen. Der Timestamp wird also nur benutzt, um das Veröffentlichungsdatum mit dem Zeitpunkt abzugleichen, an dem Crawler einen Beitrag das erste Mal gefunden haben.
Graue Sterne
Zurzeit ist Google fleißig dabei, Alternativen für die bekannten orangen Bewertungssterne zu testen. Hierbei bekommen viele verschiedene Farben eine Chance – nun sind die grauen Sterne an der Reihe.
Es ist jedoch nicht davon auszugehen, dass diese zum Standard werden. Denn das genutzte Dunkelgrau hebt sich zu wenig vom hellen und transparenten Grau ab, dass für leere Sterne verwendet wird.
22.01.2016: Google als Museum
Google arbeitet seit Jahren mit zahlreichen internationalen Museen zusammen. Ziel ist es, die spannendsten Kunstwerke auch online erlebbar zu machen – damit auch die Menschen, die nicht in die entsprechenden Länder reisen können, die Werke genießen können.
In der letzten Zeit hat sich eine Vielzahl an zusätzlichen Museen dieser Initiative angeschlossen. Zudem können einige Museen nun via Steet View virtuell durchquert werden – und das vom heimischen Sofa aus.
19.01.2016: SEO Wetter Tools sind nicht allwissend
Ein toller Weg, um zu merken, wenn es in den organischen Suchergebnissen von Google zu größeren Veränderungen kommt, sind die internationalen SEO Wetterberichte. Denn diese schlagen aus, wenn sie Änderungen feststellen.
Damit können Sie beispielsweise auf ein Panda-, Penguin- oder Core-Update hinweisen. Sie sind jedoch nur ein Indikator und können nicht feststellen, was denn nun genau passiert ist.
Tools wie das SEO Wetter (für den deutschen Raum), der Mozcast, RankRanger oder Algoroo zeigen an, wenn sich in den SERPs etwas tut. Doch wie zuverlässig sind sie eigentlich – und sind sie SEOs wirklich eine Hilfe im Alltag?
Google zweifelt
Diese Frage kam auf, da sich die zwei bekanntesten Sprachrohre des Google-Konzerns, John Mueller und Gary Illyes, in den letzten Tagen vergleichsweise negativ über diese Tools geäußert haben.
John stellte im Google Webmaster Hangout vom 12.01.2015 fest, dass “die SEO Wetter Tools Dinge oft anders tracken als wir [Google]. Daher sehen sie manchmal Veränderungen, die wir so gar nicht wahrgenommen haben.”
Und auf die Nachfrage von Barry Schwartz, ob denn manche der SEO Wetter Tools falsche Dinge aufgreifen würden, antwortete Gary bei Twitter mit einem einfachen und unmissverständlichen “ja”.
Es ist verständlich, dass von Seiten Googles solche Aussagen getroffen werden. Denn der Konzern will sich selbstverständlich nicht in die Karten schauen lassen und strebt danach, viele seiner täglichen Updates im Geheimen durchzuführen.
Und da nur Google die eigenen Zahlen kennt, ist es ihnen natürlich ein leichtes, schwammig auf “Fehler” hinzuweisen. Dies wird noch einfacher, da die meisten Wetterberichte nicht offen angeben, welche Werte sie genau tracken.
Die andere Seite
Aber aus Sicht von Webmastern und SEOs sieht das Ganze etwas anders aus. Denn für sie sind diese Wetterberichte – in Verbindung mit anderen Tools und natürlich den einschlägigen Foren – ein guter Weg, um sich auf dem Laufenden zu halten.
Fraglos werden diese Tools nicht dafür sorgen, dass SEOs einen wirklichen Blick hinter die Kulissen von Google erlangen – in einem Statement sagte beispielsweise Algoroo, dass das Tool Google nicht entschlüsseln werde. Als ein Alarmsystem sei es aber dennoch hilfreich.
Denn wenn die Werte ausschlagen, dann ist dies ein Zeichen, dass interessierte Webmaster etwas genauer hinschauen sollten. Und genau dafür sollten die Wetterberichte genutzt werden, auch wenn sie Google’s Wirken nicht 100% akkurat abbilden können.
14.01.2016: Core-Algorithmus: Die weltweite Bewertung
In den letzten Tagen war, dank des Pandas, viel vom Core-Algorithmus zu hören. Dieser hat am vergangenen Wochenende ein Update erfahren, das jedoch nichts mit Panda zu tun hatte.
Das zeigt, dass der Core-Algorithmus nicht immer komplett laufen muss. Es kann auch sein, dass zu einem bestimmten Zeitpunkt nur gewisse Teile verwendet werden. Damit ist klar, dass der Panda auch künftig noch “angestoßen” werden muss.
Eines gilt jedoch laut John Mueller für alle Algorithmen: Sie sind weltweit tätig. Sie sind (abgesehen von kleinen Teilen) grundsätzlich für alle Länder und Sprachen identisch. Die Suchergebnisse können sich jedoch auf Grundlage des Suchortes ändern.
Was auch für alle gilt ist, dass Updates in Zukunft immer schwerer nachzuvollziehen sein werden. Denn bereits jetzt nimmt Google fast täglich Updates am Core-Algorithmus vor, die in den allermeisten Fällen niemandem auffallen.
Entsprechend wird es immer schwerer, zu verstehen, was Google genau möchte (außer natürlich “tolle Inhalte” mit einer “tollen Nutzererfahrung”). Daher wird es in Zukunft noch wichtiger, sich auch um alternative Suchsysteme und Trafficquellen zu bemühen.
12.01.2016: Google Update? Kein Echtzeit-Penguin!
UPDATE 2: KEIN Penguin!
John Mueller hat bestätigt, was wir schon geahnt haben: Der Penguin lässt weiter auf sich warten. Auf Google+ antwortete er auf Nachfrage schlicht und ergreifend: “Nein, kein Penguin.”
Wir sind daher gespannt, was denn am Wochenende nun wirklich passiert ist. Und vor allem, wann der Penguin in Echtzeit denn nun wirklich auf uns losgelassen wird. Das Warten geht weiter.
UPDATE: Es scheint tatsächlich kein Penguin zu sein
Es sieht immer mehr danach aus, als wäre am Wochenende kein neues Penguin-Update eingespielt worden. Zum einen zeigen die von Johannes Beus berechneten SISTRIX-Zahlenkeine ungewöhnlichen Schwankungen.
Zum anderen beharrt auch John Mueller weiterhin darauf, dass es viele Updates gibt, Google den meisten gar keine Namen gibt, die oft von außen gar nicht zu erkennen sind und es im Hinblick auf das Wochenende nichts zu vermelden gibt. Es heißt also weiterhin: Warten auf den Echtzeit-Penguin.
Seit dem Wochenende fragt sich die internationale SEO-Szene: Gab es ein Google Update? Und wenn ja, handelt es sich um das lang erwartete Penguin-Update, das von nun an in Echtzeit laufen wird?
Es scheint so, als hätte es ein Update gegeben. Das ist an sich aber nichts außergewöhnliches, denn Google dreht bei den Algorithmen immer mal wieder an verschiedenen Stellschrauben. Updates sind also eher die Norm als die Ausnahme.
Penguin oder nicht?
Die Frage ist nun, ob es sich um das Penguin-Update handelt. Einige Anzeichen sprechen dafür – denn in den einschlägigen Foren geht es heiß her und das SEO-Wetter spielt verrückt.
Aber eine Sache spricht dagegen. Denn Google hat die Öffentlichkeit bisher immer über die Penguin-Updates informiert. Bisher hüllen sich die Verantwortlichen allerdings in Schweigen, so zum Beispiel John Mueller: “Wir machen sehr deutlich, dass es im Moment nichts anzukündigen gibt.”
Gary Illyes ging gestern Abend sogar noch einen Schritt weiter. Er antwortete auf die Frage, ob der Penguin bereits ausgerollt wurde: “Das kann ich erst morgen prüfen. Mein Bauchgefühl sagt nein.”
Das heißt natürlich nicht, dass es sich zu 100% nicht um das Penguin-Update handelt. Es kann auch einfach sein, dass Google mit der entsprechenden Ankündigung noch etwas warten möchte.
Wir müssen uns also – wie so oft – in Geduld üben und die bekannten Quellen weiter durchforsten. Wir halten euch dabei natürlich auf dem Laufenden – egal ob Penguin oder nicht.
03.12.2015: Google Qualitätsupdate: Phantom III
Seit Mitte November gibt es einige deutliche Veränderungen in den Google Rankings. Diese scheinen nicht auf das aktuell laufende Panda Update zurückzuführen zu sein, sondern liegen aller Wahrscheinlichkeit nach an einem Qualitätsupdate an Google’s Core Algorithmus.
Es gibt aucch bereits erste Zahlen und Daten, die nahe legen, dass es sich um das Phantom II Update handelt.
Hier ist, was wir bisher wissen.
Änderungen nicht durch Panda oder Penguin
Wenn es sich um ein Panda oder Penguin Update handelt, lässt sich Google meist zu offiziellen Aussagen hinreißen. Doch seit den ersten Anzeichen in den SERPs hat es von den bekannten offiziellen Sprachrohren keinen erhellenden Kommentar gegeben.
Im Gegenteil wissen wir, dass das Penguin Update noch auf sich warten lässt. Zudem ist der Panda grad dabei, langsam auszurollen. Solch eine spontane und deutliche Veränderung der organischen Rankings würde daher nicht ins Bild passen. Es scheint sich also um etwas anderes zu handeln.
Core Algorithmus Update
Google betont immer wieder, dass jährlich mehrere hundert Updates an den Algorithmen vorgenommen werden. Diese werden nicht offiziell bestätigt – entsprechende Anfragen werden meist mit der Phrase “wir haben nichts zu vermelden” beantwortet. So auch diesmal.
Gleiches gilt, wenn Änderungen am Core Algorithmus vorgenommen werden. Google hat mehrfach deutlich gemacht, dass diese nicht öffentlich diskutiert werden – SEOs können in solchen Fällen also keine definitiven oder hilfreichen Aussagen von Google-Offiziellen erwarten.
Ein Qualitätsupdate
Seit dem 19. November verdichten sich nun die Anzeichen, dass etwas passiert ist. Und die Indizien deuten auf eine Ähnlichkeit zum beziehungsweise eine Weietrentwicklung vom Phantom II Update hin. Dieses fand im Mai statt, wurde einige Wochen später von Google bestätigt und als Qualitätsupdate bezeichnet.
Diese deutlichen Änderungen in den Rankings kamen nun fast zeitgleich mit der der Veröffentlichung des Search Quality Raters Guide. Dieser legt ein spezielles Augenmerk auf hochwertige Inhalte und Websites, welche die Suchintention der Nutzer befriedigen sollen.
Laut Searchmetrics beziehen sich die aktuellen Rankingverschlechterungen daher vor allem auf Seiten, die schlechte Inhalte anbieten, Duplicate Content aufweisen oder für fremde Brand-Keywords ranken. Dies verdeutlicht, dass die Intention des Suchenden in den Mittelpunkt rückt.
Fazit: Phantom III
Zudem wurden viele Änderungen, die aus dem Phantom II Update resultierten, wieder zurückgenommen. Laut Seokratie betrifft dies sowohl Seiten, die Verluste wieder gut machen konnten, als auch Seiten, die Ihre Verbesserungen wieder verloren haben. Julian Dziki denkt zudem, dass auch das neue RankBrain einen Einfluss auf diese Änderungen haben könnte.
Wir sind gespannt, was sich in den nächsten Tagen aus den immer mehr werdenden Zahlen und Daten herauslesen lassen wird. Nur eins ist klar: Die Qualität und das Befriedigen der Nutzerintention gehören nun endgültig zu den wichtigsten Faktoren bei der Bewertung einer Website.
24.11.2015: Live-Blogging Label
Bei zahlreichen Themen sind Nutzer auf der Suche nach den neuesten Nachrichten und Entwicklungen. Hier bieten sich oft Live-Blogs oder Live-Ticker als die beste Informationquelle an. Doch es ist nicht immer leicht, diese in den SERPs sofort zu erkennen.
Daher hat Google nun ein entsprechendes Label eingeführt. Webmaster können also ein Schema Markup nutzen, um ihre Seiten in den organischen Suchergebnisse als Live-Blogs auszuzeichnen.
Dann erhalten Sie ein kleines rotes Kästchen mit weißer Schrift (“Live”), dass Nutzer prominent auf die Natur des Beitrags hinweist. Damit dürften diese Websites mehr Traffic erhalten und Nutzer schneller das finden, was sie suchen. Eine tolle Neuerung also.
20.11.2015: Google Search Quality Raters Guide veröffentlicht
23.10.2015: Google Halloween Update?
Die Anzeichen verdichten sich, dass Google in den letzten Tagen, genauer am 20. / 21. Oktober, ein größeres Update vom Stapel gelassen hat. Nun beginnt erneut das große Raten, worum es sich genau handelt.
Ausschläge in den Tools
Barry Schwartz zeigt bei Search Engine Roundtable, dass alle gängigen Tools am 20. Oktober einen deutlichen Ausschlag verzeichnen. Daher kann man davon ausgehen, dass hier tatsächlich etwas geschehen ist.
Bereits vor einer Woche haben einige Webmaster Anzeichen für ein Update gesehen – dabei handelte es sich aber aller Wahrscheinlichkeit nach um das aktuell laufende Panda Update. Die jetzt Auftretenden größeren Schwankungen könnten entweder auf ein eigenständiges großes Update, oder auf eine Mischung aus Panda und etwas anderem hindeuten.
Es ist nicht der Penguin
Auf Twitter hat Gary Illyes zumindest mit den Gerüchten aufgeräumt, dass es sich um das lang erwartete Penguin Update handeln könnte. Dieses sei “noch nicht fertig für die Primetime”, befindet sich also noch in der Entwicklung.
Zudem sagt er, dass “wir Änderungen am Core Algorithmus nicht bestätigen. Wir ändern diesen hundertfach, und dies könnte eine dieser Änderungen sein.” Es gibt also hinreichende Gründe, zu spekulieren, dass es sich um eine solche Änderung handelt. Barry Schwartz hat auch schon einen Namen: HALLOWEEN ZOMBIE UPDATE.
21.10.2015: Mehrere Google News
An manchen Tagen tut sich auch im Hinblick auf Google mehr als an anderen. Daher habe wir heute einige Nachrichten, die inhaltlich zum Teil sehr verschieden sind, für euch zusammengefasst.
Google und Yahoo arbeiten zusammen
Wenn sich nicht eine oder mehrere der internationale Kartellbehörden dagegen aussprechen, dann wird Yahoo künftig verstärkt mit Google zusammenarbeiten. Dies bezieht sich sowohl auf die Quelle der angezeigten Suchergebnisse, als auch auf die ausgespielten Werbeanzeigen.
Im April hatte Yahoo entschieden, auf diesen Gebieten weiterhin hauptsächlich mit Microsoft zusammenzuarbeiten – dieser Deal erlaubt jedoch, bis zu 49% der angezeigten Ergebnisse von anderen Wettbewerbern einzuholen. Und hier kommt wohl künftig Google verstärkt ins Spiel.
Google ändert den Seitentitel in den SERPs
Es kommt immer mal wieder vor, dass Google in den Suchergebnissen eigenmächtig einen Seitentitel anzeigt, der so nicht vom Webmaster vorgegeben war – dies führt oft zu Irritationen.
Im indischen Webmaster Hangout wurde nun erklärt, wie und warum dies von Statten geht. So geht es vor allem um die Inhalte des entsprechenden Aktertextes, wenn eine Seite verlinkt wird. Wenn dieser als Titel bei einer Suchanfrage mehr Sinn macht, könnte er genutzt werden. Daher kann eine Seite bei verschiedenen Suchanfragen mit unterschiedlichen Titeln auftauchen.
Fetch as Google Partial
Fetch as Google zeigt dem Webmaster, wie der Googlebot seine Seite sieht. Damit wird es möglich, Inhalte und technische Probleme zu erkennen und entsprechend anzupassen, ohne dafür auf Nutzerfeedback warten zu müssen.
Manchmal sorgt jedoch die Meldung, dass die Seite nur teilweise gecrawlt werden konnte, für Verwirrung. Wenn man die eigene Seiten komplett sehen kann, sollte man dies laut Gary Illyes einfach ignorieren.
15.10.2015: Wix-Webseiten sind nicht mehr im Google-Index
Wix ist weltweit eines der meist genutzten Baukasten-Systeme zur Erstellung von Webseiten. Entsprechend sorgt es für einen großen Aufschrei, wenn Seiten, die damit angefertigt wurden, auf einmal aus dem Google-Index fliegen.
Und genau dies ist in den letzten Wochen geschehen. Seiten, die mit Wix erstellt wurden, verzeichnen ohne ersichtlichen Grund einen dramatischen Abfall bei den indexierten Seiten – und damit einen starken Traffic-Rückgang.
Der Fehler liegt bei Google
Im Webmaster Hilfeforum hat sich nun John Mueller zu Wort gemeldet. Ihm ist das Problem bekannt, und er bittet um etwas Geduld, während das Team an einer Lösung arbeitet.
Es ist jedoch noch nicht bekannt, wo das Problem genau liegt. Wix nutzt viel AJAX, welches von Google nun nicht mehr unterstützt wird. Dies könnte ein Anhaltspunkt sein, ist jedoch nur eine Vermutung.
Betroffenen Webmastern bleibt momentan nicht viel anderes übrig, als abzuwarten. Sie sind jedoch dazu aufgerufen, Google im entsprechenden Hilfeforum über Neuigkeiten zu diesem Thema auf dem Laufenden zu halten – auch alle Fragen sind stets willkommen.
15.10.2015: Google stoppt Unterstützung für das AJAX Crawling Scheme
Seit 2009 hat Google empfohlen, auf das AJAX Crawling Scheme zurückzugreifen, um dynamische Inhalte für die Suchmaschine lesbar zu machen. Da Google aber mittlerweile in der Lage ist, Dinge wie JavaScript und CSS zu erkennen, ist dies nun überholt.
Entsprechend hat Google seine Unterstützung für das AJAX Crawling Scheme nun eingestellt. Damit wird es umso wichtiger, dem Googlebot Zugang zu JavaScript und CSS zu gewähren.
Trotz alledem sollte Google Seiten, die nach den AJAX Prinzipien aufgebaut sind, weiterhin problemlos crawlen können. Um künftig auf der sicheren Seite zu sein, sollten Webmaster laut Google nun dem Prinzip der progressiven Verbesserung (barrierefreie Seiten mit semantischen Zusammenhängen und der Trennung von Präsentation und Information) verfahren und ihre Seiten auf lange Sicht umrüsten.
02.10.2015: Werde Google Trusted Tester
Google such mal wieder offensiv nach Leuten, die Produkte vor der Veröffentlichung testen wollen. Dies kann für SEOs unter Umständen sehr interessant sein, hat allerdings auch seine Nachteile.
Früher Zugriff auf die Zukunft
Die Vorteile einer Teilnahme an solchen Tests liegt auf der Hand. Man bekommt als einer der ersten Zugriff auf (mögliche) künftige Features. Diese können beispielsweise in Search Console oder Analytics vorkommen.
Bewirbt man sich also als Trusted Tester, so kann man unter Umständen frühzeitig auf entsprechende Neuerungen reagieren. Zudem kann man ausführliches und ehrliches Feedback geben, wodurch neue Features unter Umständen noch auf der Grundlage der eigenen Präferenzen optimiert werden.
Datenangaben nötig
Auf der anderen Seite wird häufig kritisiert, dass interessierte Personen bei der Bewerbung zahlreiche Daten angeben müssen – ohne zu wissen, ob sie tatsächlich jemals als Tester werden arbeiten dürfen.
Fazit
Jeder muss selbst wissen, ob er oder sie eine solche Möglichkeit nutzen möchte. Es kann zweifellos viele Vorteile mit sich bringen, aber nicht jeder hat die Zeit oder Lust, sich auf ein solches Abenteuer einzulassen. Wer sich einmal umschauen möchte, kann sich hier bewerben.
30.09.2015: First Click Free Regel geändert
Google hat die Richtlinien seiner First Click Free Regel geändert. Damit wird dem Wunsch von Herausgebern nach mehr Exklusivität Rechnung getragen.
Was ist First Click Free?
Die First Click Free Regel hat zwei Ziele. Zum einen soll sie dabei helfen, dass Nutzer von Google die Inhalte, die sie suchen, auch schnell finden. Zum anderen soll sie dafür sorgen, dass auch Herausgeber von kostenpflichtigen Inhalten über die Suchmaschine gefunden werden können.
Zu diesem Zweck wurde ein Kompromiss ausgearbeitet. Nutzer, die Content via Google finden und auf den entsprechenden Link klicken, werden auch bei kostenpflichtigen Inhalten nicht direkt von einer Paywall begrüßt. Statt dessen erhalten sie eine gewisse Anzahl an kostenfreien Klicks, bevor sie zum Bezahlen aufgefordert werden.
Damit soll außerdem verhindert werden, dass die Nutzer der Suchmaschine etwas anderes sehen als der Googlebot. Dies würde die entsprechenden Seiten in die Nähe des Cloaking rücken und unter Umständen empfindliche Strafen nach sich ziehen.
Was ändert sich – und warum?
Bisher war es so, dass Nutzer bis zu 5 Artikel kostenfrei sehen konnten, bevor die Paywall getriggert wurde. Nun hat Google die Richtlinien dahin gehend verändert, dass nur noch 3 Artikel angezeigt werden müssen. Damit reagiert die Suchmaschine auf die Wünsche von zahlreichen Publishern.
Die Gründe für diesen Kurswechsel liegen auf der Hand. Denn zahlreichen Nutzern ist es ein leichtes, die täglichen Beschränkungen zu umgehen, um mehr Artikel kostenfrei lesen zu können. Sind weniger Artikel frei verfügbar, erhöht sich hierbei der Arbeitsaufwand. Dies könnte einige Nutzer dazu bringen, sich für die bezahlte Variante zu entscheiden.
Zudem sind immer mehr Publisher darauf angewiesen, mit ihren Inhalten direkt Geld zu verdienen. Einer der Gründe hierfür ist die immer weitere Verbreitung von AdBlockern, weshalb die Ersteller von Inhalten neue Monetarisierungskonzepte implementieren müssen.
Daher ist es fraglich, wie lange die neue Richtlinie gelten wird. John Mueller lässt in der Ankündigung bereits durchblicken, dass Google weiterhin die Erfolge und Misserfolge seiner Regeln analysieren wird, um diese zukunftsfähig zu machen.
Fazit
Es kann also sein, dass die First Click Free Regel eines Tages tatsächlich nur noch für den ersten Klick gelten wird. Doch noch ist es nicht soweit. Die neue Regelung ist vielmehr ein gelungener Kompromiss zwischen den Wünschen der Herausgeber und denen der Nutzer.
Wir werden jedoch sehen, wie lange dieser Kompromiss halten wird. Denn die Geiz-Ist-Geil-Mentalität vieler Internetnutzer wird Publisher dazu bringen, immer neue Wege zur Finanzierung ihrer Angebote auszuloten. Man darf gespannt sein, inwiefern Google sich in diesen Prozess einbringen wird.
24.09.2015: Chrome zum Absturz bringen
Der Google Chrome Browser verspricht schnelleres Surfen. Doch mit dem Surfen kann es unter Umständen schnell vorbei sein.
Findige Internetnutzer haben herausgefunden, dass der Browser durch die Zeichenfolge %%30%30 zum Absturz gebracht wird. Egal, ob man eine entsprechende URL aufruft, auf einen Link mit dieser Kombination klickt, oder einfach nur mit dem Mauszeiger darüber hinweggeht.
Dieser Bug betrifft Chrome bis zur Version 45. Auch der Opera Browser bis zur Version 31 ist betroffen. Google ist das Problem bekannt, laut offiziellen Aussagen wird zurzeit an einer Lösung gearbeitet.
18.09.2015: E-Mails im Index
John Mueller nimmt sich bei Google+ einem Problem an, wegen dem er öfter angesprochen wird: E-Mailadressen im Index.
So kommt es wohl häufiger vor, dass diese versehentlich in den Index rutschen (als Parameter auf dem Skript einer Seite) und dann nur schwer wieder zu entfernen sind. John zeigt, dass man diese mit folgendem Befehl herausfinden kann:
Danach kann man sich zu Search Console begeben, um die entsprechenden URLs per Removal Request vorläufig aus dem Index zu entfernen.
Auf lange Sicht ist dies jedoch nicht ausreichend. Hier sollte das Crawlen erlaubt werden, nachdem die URLs mit einem Noindex versehen wurden. Somit können sie nachhaltig aus dem Index entfernt werden. Das einfache Blockieren per robots.txt ist nicht genug.
18.09.2015: G+ Links nicht mehr in den SERPs
Google hat die bekannten Links zu Google+ und zu den entsprechenden Bewertungen aus den Suchergebnissen entfernt. Auch, wenn man nach einem bestimmten Unternehmen sucht, erscheinen sie nicht mehr.
Es gibt lediglich noch Links zu den Google-Reviews im Knowledge Panel. Ein weiterer Schritt also, um Google+ von den anderen Google-Diensten abzukoppeln. Wir dürfen gespannt sein, wie Google künftig mit Unternehmensbewertungen umgehen wird.
14.09.2015: Einzeilige Sitelinks
Normalerweise zeigt Google die Sitelinks in Blöcken an, die über mehrere Zeilen gehen. Nun gibt es jedoch die Wiederholung eines Experiments von 2009.
Hier werden alle Links in einer Zeile direkt unter dem Beschreibungstext angezeigt. Dies ist zwar sehr übersichtlich, verschiebt den Fokus jedoch etwas von den Inhalten der Links – hin zum gesamten Ergebnis.
09.09.2015: Google Neuigkeiten
Suchergebnisse mit Infinite Scroll
Einige Nutzer haben in den letzten Tagen Google Suchergebnisse gesehen, die sich nicht auf die bekannten 10 Links pro Seite beschränkten – sondern endlos weiter gescrollt werden konnten.
Ein ähnliches System nutzt Google seit einiger Zeit bei der Bildersuche. Es stellt definitiv eine Aufwertung der Ergebnisse dar, die bisher nicht auf der ersten Seite standen. Denn die Hürde, sich zu weiteren Seiten durchklicken zu müssen, fällt weg.
Sollte sich dieses System auch in den SERPs durchsetzen, müsste Google sich eine neue Darstellungsweise für die Werbeanzeigen ausdenken. Vielleicht 2 Anzeigen nach 10 organischen Ergebnissen, was die Werbung noch unauffälliger platzieren würde. Definitiv ein spannendes Experiment – wir sind gespannt, wie es weiter geht.
Posts und Pages sind identisch
Im Google Webmaster Help Forum kam die Frage auf, ob Google einen Unterschied zwischen Web Pages und Web Posts macht. John Mueller antwortete – wenig überraschend – das es keine Unterschiede gibt. Google ist das völlig egal.
07.09.2015: Markenstreitigkeiten in der Welt der Suche
02.09.2015: Das neue Google Logo
27.08.2015: Google updatet Algorithmus am Indexierungsvorgang
Im heutigen Webmaster Hangout wurde John Mueller zwei Mal gefragt, ob Google Probleme mit der Indexierung der Websites hat. Auch auf den US Seiten kam diese Frage seit gestern häufiger auf.
John antwortet, dass es ein Update gab, wie Google die Websites indexiert und das es daher schon sein kann, dass es hier derzeit zu Veränderungen in der Anzeige in der Search Console kommt.
In einem Halbsatz deutet er im zweiten Video auch an, dass es bei der neuen Einstufung der Indexierung auch zu Rankingveränderungen kommen kann. Es scheint also größere Auswirkungen zu haben als eine einfache Änderung wie und welche Seiten indexiert werden.
18.08.2015: Neue eigenständige Hangouts Seite
In den letzten Wochen wurden immer mehr einzelne Features von Google+ losgelöst. Nun hat eine der beliebtesten Funktionen eine eigene Seite erhalten.
Google Hangouts sind, nicht zuletzt dank der Webmaster Office Hour Hangouts mit John Mueller, eine der besten Funktionen von Google+. Nun können sie auch viahttps://hangouts.google.com/ gestartet werden. Jordanna Chord von Google machte diese Nachricht bei Google+ öffentlich und bat um Nutzer-Feedback im Hinblick auf die Gestaltung und Usability der neuen Seite.
Messenger-Dienste werden immer wichtiger
Diese Änderung zeigt einmal mehr die Wichtigkeit von Messenger-Diensten. Es ist also nicht verwunderlich, dass Google versucht, seinem Dienst durch mehr Eigenständigkeit ein stärkeres Profil zu verleihen. Es ist jedoch davon auszugehen, dass die Hangouts-Funktion auch in Google+ weiter funktionieren wird. Gerade für Institutionen wie die Webmaster Hangouts kann die Verbindung mit dem sozialen Netzwerk durchaus Sinn machen.
Interessant wird zudem, was mit den anderen Möglichkeiten der Hangout-Vernetzung passiert – denn bisher kann man sich bekanntlich unter anderem auch via Gmail und Chrome-Erweiterung anmelden. Ob diese Vielzahl an Wegen auch in der neuen Struktur Sinn machen wird, bleibt abzuwarten.
12.08.2015: Mehr zu Google’s Umstrukturierung
Google wird Teil von Alphabet. Dies bringt einige Veränderungen mit sich – und sicher künftig auch einige Überraschungen.
Kauft Alphabet Twitter auf?
Beispielsweise wird an einigen Stellen spekuliert (beispielsweise hier bei GoogleWatchBlog), dass Alphabet in naher Zukunft einen neuen Versuch starten könnte, um Twitter zu übernehmen. Experten geben zu Protokoll, dass durch die neue Konzernstruktur solche Übernahmen leichter zu stemmen seien.
Denn nun müssten Neueinkäufe nicht mehr in Google eingegliedert werden, sondern könnten als eigenständiges Unternehmen unter dem Schirm von Alphabet fungieren. Hierdurch könnte kartellrechtlichen Bedenken zumindest theoretisch begegnet werden.
Die Änderung stärkt Google’s Bilanzen
Zudem freut sich die Börse, denn die Bilanz des traditionell starken Google-Konzerns wird künftig nicht mehr durch die Moonshot-Projekte getrübt werden. Google wird demnach, als stärkste Firma des Alphabet-Kosmos, einen Großteil des Gewinns einspielen und damit weiterhin die Experimente in anderen Sparten finanzieren – allerdings ohne selbst darunter zu leiden.
Probleme bei der URL
Es ist außerdem interessant, dass die eigenwillige URL der neuen Alphabet-Homepage bei vielen Nutzern für Verwirrung sorgt. Denn anstatt abc.xyz suchen viele aus Gewohnheit nachalphabet.com.
Diese Seite gehört jedoch einer Tochterfirma des Automobilherstellers BMW und ist seit gestern kaum noch zu erreichen. Der Server ist dem ungewohnten Ansturm einfach nicht gewachsen. Nebenbei bemerkt ist die Seite abc.xyz aus China nicht ohne weiteres zu erreichen, denn sie wurde umgehend auf die staatliche Verbotsliste gesetzt.
11.08.2015: Alphabet ist da
04.08.2015: Kein Spamupdate, kein Penguin, keine Updates
29.06.2015: Google’s Zukunft
Es steht die Frage im Raum, wie sich die Konstanten unserer Zeit an künftige Gegebenheiten werden anpassen können. Aktuell wird diese Frage beispielsweise im Hinblick auf Printmedien beantwortet – diese waren eine Konstante für mehrere Generationen und müssen sich aktuell an neue Umstände gewöhnen. Hierbei sieht man verschiedene Taktiken, die zu unterschiedlichen Erfolgen und Misserfolgen führen.
Gleichsam kann man sich bei einem nicht mehr wegzudenkenden Teil unseres heutigen Lebens, den Suchmaschinen, fragen, inwiefern sie in einigen Jahren (oder Jahrzehnten) noch relevant sein werden. Exemplarisch soll dieser Gedanke für die nähere Zukunft hier am Beispiel Google vollzogen werden.
Die mobile Suche
Es ist absehbar, dass in Zukunft der überwiegende Teil des Internetkonsums mit mobilen Geräten stattfinden wird. Entsprechend wird es für Google wichtig sein, die UX bei der mobilen Suche stetig weiter zu verbessern. Ein erster Schritt in dieser Hinsicht war das direkte Anzeigen von mobiloptimierten Angeboten (Mobilgeddon). Ein weiterer Schritt dürfte die Einführung eines eigenen Mobilindexes sein, der bereits von Gary Illyes angekündigt wurde. Mit diesen Schritten sollte es Google gelingen, auch im mobilen Zeitalter als Marktführer zu bestehen – zumindest was die organische Suche angeht.
Die mobile Werbung mit Call to Action Buttons
Eine ähnliche Entwicklung ist auch für AdWords Anzeigen zu erwarten. Hier dürfte die Mobiloptimierung sowohl der Landing Pages als auch der Interaktionsflächen hinter den Anzeigen noch wichtiger werden. Möglich ist auch, nach dem Vorbild von Bing, eine Ausweitung der Interaktionsmöglichkeiten in den Anzeigen selbst (Beispielsweise durch call to Action Buttons). Sollte Google hiermit Erfolg haben, dürfte einer Fortführung des milliardenschweren Werbegeschäftes auch in Zukunft nichts im Wege stehen.
Das Wissen direkt in den SERPs
Wichtig dürfte es für Google zudem werden, das Angebot von Inhalten auf der eigenen Seite voranzutreiben. Der Knowledge Graph und die entsprechenden direkten Antworten sind die ersten Schritte auf diesem Gebiet – und man kann davon ausgehen, dass weitere folgen werden. Google entwickelt sich, auch mit den Produktplatzierungen, immer mehr in Richtung Full-Service-Webseite. Und ein Ende dieser Entwicklung ist noch lange nicht abzusehen. Damit kann es dem Konzern gelingen, auch künftig seine Stellung als wichtigste Stelle der Online-Datenverteilung zu behaupten.
Die App-Suche
Sowohl Google als auch andere Suchmaschinen arbeiten zurzeit an Möglichkeiten, qualitativ hochwertige App-Suchen zur Verfügung zu stellen. Dies macht Sinn, da davon auszugehen ist, dass Apps in Zukunft immer wichtiger werden – gerade im mobilen Bereich könnten sie althergebrachte Webseiten auf lange Sicht verdrängen. Gelingt es Google also, diese Inhalte nutzerorientiert darzustellen, sollte die Suchmaschine für die Zukunft gerüstet sein.
Selbstverständlich behandelt dieser Artikel nur die 4 wichtigsten Trends der näheren Zukunft. Wir alle wissen, wie schnell eine Erfindung die Strategien großer Konzerne über den Haufen werfen kann. Es ist jedoch nicht davon auszugehen, dass Google in naher Zukunft von einer solchen Erfindung überrascht werden könnte – sondern eher, dass der Konzern eine solche selbst herausbringt.
26.06.2015: Google zeigt ähnliche Artikel in den SERPs
Sebastian Wendt hat gestern entdeckt, dass bei einer Suche nach seiner eigenen Seite in den SERPs ein Link zu einem „Related Article“ angezeigt wird – dieser verweist auf Google Scholar.
Verständlicherweise finde er es komisch, „dass die Snippets der eigenen Seite direkt auf Googles Produkte linken.“ Die einzige Erklärung ist, dass es auf das Orginal-PDF verweist, dessen Kopie er zum Download anbietet.
Google scheint damit immer weiter daran zu arbeiten, den Nutzer ausschließlich in seinen Diensten zu belassen. Das eigentliche anklicken gefundener Webseiten wird durch die weitreichenden Informationen zu Beginn der Suchergebnisse immer öfter verhindert – zumindest bei geschlossenen Suchen.
Während dies natürlich positiv für die Nutzererfahrung ist, dürften sich Webseitenbetreiber selbstverständlich weniger freuen. Was denkt ihr – ist Google mit dieser Taktik auf dem richtigen Weg?
Ein negatives Beispiel hat Bianca Jacobi gefunden.
25.06.2015: Matt Cutts‘ Urlaub dauert noch bis Ende des Jahres
20.06.2015: Newswave Update
Tanja Preuße machte mich heute Morgen auf einen guten Blogbeitrag von Searchmetrics aufmerksam. Hier wurde das letzte (nicht benannte) Update von Anfang der Woche Newswave getauft.
Searchmetrics will hier, anders als die MOZ, nicht den Zusammenhang mit https sehen, sondern darin, dass es eine Änderung am Algorithmus bezüglich der Aktualität gab.
DABEI SIND NACH UNSEREN ERSTEN ANALYSEN IN ERSTER LINIE AKTUELLE TRENDING KEYWORDS SOWIE DIE ERFÜLLUNG KURZFRISTIG ENTSTANDENER SUCHINTENTIONEN BEI INFORMATIONSORIENTIERTEN (SHORTHEAD-)KEYWORDS BETROFFEN
Im Blogbeitrag sehr schlüssig dargelegt zeigt Searchmetrics, das Medienseiten die Nutznießer der Updates sind. Ob es wirklich ein Newswave Update war bleibt zu klären. Wir werden in der nächsten Woche im Hangout auf jeden Fall einmal Nachfragen falls die Informationen nicht schon vorher fließen.
18.06.2015: MOZ über das “Colossus Update”
Gestern hatte der MozCast den größten Temperaturwechsel seiner Geschichte – und eine der höchsten Temperaturen überhaupt. Dies bringt die Moz-Blogger dazu, vom Colossus Update zu sprechen. In diesem Zusammenhang bietet Dr. Peter J. Meyers einige Erklärungsansätze im Hinblick auf mögliche Änderungen am Algorithmus. Seine Erläuterung heißt HTTPS – wir wissen, dass dies immer wichtiger wird.
HTTPS
Die erste Auffälligkeit bezieht sich auf die sicheren Verbindungen via HTTPS. Am 17. Juni waren auf einmal prozentual mehr HTTPS-Seiten auf der ersten Seite der Suchergebnisse – und gleichzeitig rankten diese im Durchschnitt höher. Auch wenn dies kein stichhaltiger Beweis für eine Algorithmusänderung ist, zeigt es doch deutlich, wie wichtig eine zeitnahe Umstellung auf HTTPS ist.
WIKIPEDIA
Auch Wikipedia scheint die Zeichen der Zeit erkannt zu haben und ist seit vergangener Woche damit beschäftigt, seine ganze Seite auf HTTPS umzustellen. Bei einer Seite mit dem Umfang von Wikipedia dürfte dieser Vorgang einige Wochen in Anspruch nehmen. Meyers spekuliert nun, dass Wikipedia damit aufgrund früherer Updates besser rankt – und da die Enzyklopädie ein riesiges Linkvolumen aufweist, kann dies zu weitreichenden Änderungen führen.
Google sagt nur, dass es kein Panda Update ist. Aber der Plan, ein HTTPS Update mit Ranking Boost zu veröffentlichen, ist schon länger bekannt. Vielleicht ist es das?
Meyers‘ wissenschaftlicher Blickwinkel bringt ein spannendes Argument in die aktuelle Debatte. Vielleicht belohnt Google nun schlussendlich sichere Verbindungen und hat ein neues HTTPS Update gestartet. Zu diesem Zeitpunkt scheint dies eine logische Erklärung zu sein – wir bleiben gespannt, ob es auch die richtige ist.
18.06.2015: Die Zukunft der Google Updates
Gestern berichteten wir vom Phantom III Update – und auch die weiteren Meldungen aus dem US Raum verdichten den Verdacht in diese Richtung.
Was ist den ein Phantom Update?
Glenn Gabe war der erste SEO der diesen Namen ins Spiel brachte, welcher sich etablierte. Zuletzt berichtete er am 29. April 2015 vom Phantom II Update. Das Phantom I Update war am 08.Mai 2013.
Das Phantom Update ist kein offizielles Update von Google. Es war viel mehr Glenn, der erkannt hatte, dass die Veränderungen am Algorithmus so weitreichend sind, dass er dem ganzen einen Namen gab. Man musste in der SEO Szene irgendwie über dieses Update sprechen und da Glenn sehr fundiert erklärte was sich an diesen Tagen seiner Meinung nach alles änderte, etablierte sich der Begriff.
Google ändert ständig was
Google ändert fast täglich etwas am Algorithmus. Hier und da vernimmt man entsprechende Nachfragen in den Foren, aber es bleiben Einzelfälle. Ende April und nun um den 15. Juni herum sind es keine Einzelfälle mehr. Nachzuweisen sind größere Veränderungen manchmal auch mit den verschiedenen SEO Wetter Anbietern, da hier eine große Datenmenge ausgewertet wird. Gibt es viele Rankingveränderungen, steigt die Hitze.
Phantom Updates werden zu nehmen
Das es in so kurzer Zeit zu so massiven Veränderungen und Verschiebungen in den Suchergebnissen kommt, ohne das Google sich hierzu äußert oder gar ein Update bekannt gibt, ist nicht verwunderlich.
Google hat aus den letzten 10 Jahren gelernt. Eine zu offene Kommunikation, oder ein zu einfach verstehender Algorithmus führen zu Manipulationsversuchen mit dem Ziel, Webseiten nach vorne zu bekommen. Google hingegen will auf qualitativer Ebene entscheiden, welche Seite es Wert ist vorne zu stehen und welche nicht. Die bisherigen Updates sind relativ spezifisch. Es gibt mittlerweile Toolanbieter wie Sistrix und Searchmetrix, die eine so große Datenmenge besitzen und auswerten können, dass Sie in der Lage sind ganze Updates inhaltlich zu bestimmen.
Siehe hierzu eine Google Update Übersicht von Sistrix.
Google unter dem Radar?
Wenn Google es nun schafft den Algorithmus mit sehr vielen kleinen Updates so umzustellen wie Sie es haben wollen, ohne dass es zu einem Zeitpunkt zu größeren Veränderungen kommt, dann laufen Sie unter dem Radar. Phantom Updates tauchen dann auf, wenn Sie zu viel verändert haben, so dass die Veränderungen bei der breiten Masse ankommen und sich zu viele Webmaster in den Foren melden bzw. auch die Toolanbieter dies mitbekommen.
Google setzt dann auf die gängige Taktik es einfach klein zu reden. Es sind normale Updates… oder wie gestern John Mueller im Hangout sagte:
“ICH HABE VON WEBMASTERN GELESEN DIE BERICHTETEN VON STARKEN VERLUSTEN, ANDERE KONNTEN GAR NICHTS BEOBACHTEN. ES SIND NORMALE RANKINGVERÄNDERUNGEN.”
Welchen Vorteil hat Google davon?
Google ist ein Unternehmen welches Geld verdienen will. Also werden Sie anhand ihrer Vorstellungen handeln. Aktuell puschen Sie den Mobil-Markt und investieren in diesen. Da wundert dann auch kein verpufftes Mobilgeddon oder die Aussage, dass angeblich über 50% aller Suchabfragen mobil durchgeführt werden.
Google hat aus der Zeit der Linkspammer gelernt. Auf keinen Fall wollen Sie nochmal einen so einfach zu manipulierenden Algorithmus. Google möchte entscheiden wer vorne steht und das geht nur dann, wenn die Webmaster und SEOs sich an die Regeln halten. Am besten ist es, sie kümmern sich gar nicht um Google, sondern schneiden alle Maßnahmen nur auf die Webseite und den User zu.
Diese grundlegende Idee ist auch gut und schön, das Problem aber ist, dass jeder mit einer Webseite auch ein Interesse daran hat, vorne angezeigt zu werden. Dass engagierte Webmaster versuchen, Google zu gefallen, sehe ich als unkritisch an. Ich würde mir hier sogar mehr Unterstützung seitens Google wünschen und genauere Angaben, solange es im Bereich Onpage und Usability ist.
Größere Updates sterben aus
Passend dazu sind auch die Ankündigungen, Panda und Pinguin gar nicht mehr als manuelles Update durchzuführen, sondern als laufenden Prozess einzubinden. Jetzt sind manuelle Updates für den Refresh noch notwendig, so dass sich Webseiten wieder aus einem Update “befreien” können, doch wir werden sehen, dass dies bald in Echtzeit passieren kann.
Pinguin, Panda, Kolibri oder EMD Updates werden der Vergangenheit angehören und Informationen zu Updates werden uns wirklich nur bei sehr, sehr großen Veränderungen bekannt gegeben. Wir werden also wohl auch noch mit Phantom IV oder auch X zu tun haben und uns weiterhin bemühen, Google zu verstehen, um ein klein wenig besser zu sein als die Konkurrenz.
17.06.2015: Es rumpelt wieder
17.00 Uhr Wir benennen das Newswave Update.
16.15 Uhr John Mueller beantwortet im Google Webmaster Hangout meine Frage, ob es ein Panda Update derzeit gibt.
Er sagt das Ihm derzeit kein Panda Update Rollout bekannt sei. Es sind normale Rankingveränderungen. Er hat zwar von einigen gelesen die über Veränderungen berichten, viele aber sagen, sie merken nix. Es ist kein Panda Update, sondern normale Anpassungen. Wann Panda kommt beantwortet er nicht genau sagt aber, dass Panda in den kommenden Wochen kommt und Sie uns dann informieren.
15.25 Uhr eben hat MozCast die neuen Wetterdaten veröffentlicht und nun auch hier deutlich sichtbar, dass es ein Update gibt.
15.15 Uhr Barry Schwartz gibt an ebenso Veränderungen zu bemerken, diese aber nicht unbedingt auf Panda deuten müssten. https://www.seroundtable.com/google-search-update-20456.html
17.06.2015
Knapp 37 Grad und damit einer der höchsten Jahresstände. Was ist es dieses Mal? Ein echtes Update? Ist es ggf. schon das angekündigte Panda Update? Auf seowetter.de sieht es fast danach aus.
Aber auch im US Raum steigen die Temperaturen. Zeitlich würde es ganz gut hinkommen, wenn nun wie angekündigt das Rollout vom Panda starten würde. Panda wird ja meist über mehrere Tage eingespielt.
Habt Ihr auch schon Änderungen bemerkt? Diskutiert mit uns ob es das Panda Update ist oder nicht im Forum.
Auch im Abakusforum häufen sich nun die Berichte welche über starke Veränderungen berichten.
HIER TANZT ES AUCH … SEHR ZUM POSITIVEN (DIE NEUEN POSITIONEN SIND ZWAR NOCH NICHT STABIL ABER IMMER WIEDER ZU SEHEN UND SIE GEFALLEN MIR)
29.05.2015
Es scheint, als ob es gerade wieder einige Veränderungen in den Rankings in DE gibt.Auf seowetter.de ist ein starker Anstieg mit einer neuen Rekordmarke für morgen zu sehen (Prognose).
Schaut man sich an, wann es das letzte Mal diese starken Veränderungen gab, so sieht man, dass es mit dem Core/Phantom Update übereinstimmen kann.
Habt Ihr schon etwas bemerkt?
Edit: 31.05.
Zwar gab es in den Foren einige Stimmen, die über unerwartet hohe Änderungen berichteten, andere aber wieder wollen gar nichts mitbekommen haben. Da die US Tools auch keine besonderen Änderungen berichten, könnte es ein Schluckauf im System gewesen sein.
16.06.2015: Die Google-Algorithmusvorhersage
Alexander Kesler wirft die Glaskugel an und prognostiziert, wie sich Google’s Algorithmen künftig verändern werden. Er gibt zu bedenken, dass die Suche noch immer das Kerngeschäft von Google ist – entsprechend werde das Unternehmen weiter daran arbeiten, dieses Produkt sowohl für die Nutzer als auch die Werbekunden zu optimieren. Auf dieser Grundlage trifft Kesler folgende Vorhersagen (die sich mit dem Decken, was fast alle kompetenten SEOs empfehlen).
Durch die Entwicklung der künstlichen Intelligenz erwartet er eine noch größere Relevanz von gutem Content. Gleichsam sieht er Social Signals, auch durch die Einbindung von Twitter, auf dem Vormarsch.
Er erwartet zudem, dass die Sprachsuche immer häufiger genutzt werden wird – entsprechend wird Google einen Fokus auf die Nutzerfreundlichkeit von Webangeboten legen.
Allgemein denkt Kesler, dass künftige Updates eher langsam und nachhaltig agieren werden, anstatt einen großen einmaligen Einfluss auszuüben. Weiterhin sieht er eine Ausweitung des Trends, dass Google neue Dinge ausprobiert – um im Test am Nutzer zu merken, was funktioniert und angenommen wird. Wirkungslose Neuerungen würden damit schnell wieder zurückgenommen.
Auf der Grundlage dieser Prognosen empfiehlt Kesler allen Webseitenbetreibern, sich auf die Erstellung von guten Inhalten und auf die Verbesserung der Nutzererfahrung zu konzentrieren. Damit, so sein Fazit, ist jeder auf der sicheren Seite – egal was Google als nächstes plant.
11.06.2015: Neues Google Update?
Laut Barry Schwartz ist möglicherweise ein neues Google Update veröffentlicht worden – zumindest in Deutschland. Es gibt noch keine Bestätigung, aber laut Schwartz verdichten sich die Anzeichen. Demnach bemerken zahlreiche deutsche SEOs Veränderungen im Ranking und im Traffic von Google. Zudem gab es auffällige Crawlraten des GoogleBot sowie sporadische Chache Daten in Google zu verzeichnen.
Schwartz spekuliert, es könnte der Beginn des angekündigten Panda Updates sein – oder auch etwas ganz anderes. Wir halten euch auf jeden Fall auf dem Laufenden!
10.06.2015: Chrome will Flash loswerden
Google Chrome soll künftig Flash-Inhaltee einer Seite nur dann anzeigen, wenn sie als absolut notwendig angesehen werden. Alle ‚normalen‘ Flash Videos sollen automatisch pausiert werden, statt wie bisher automatisch zu starten. Die Nutzer müssen sie dann extra anklicken, um sich die Inhalte anzusehen. Laut Google wird diese Neuerung „bald“ in Kraft treten und stellt den Sinn und Zweck der Nutzung von Flash noch mehr in Frage.
Das langsame Ende von Flash
Flash wird seit langem von zahlreichen Nutzern und Entwicklern äußerst kritisch gesehen. Viele Internetnutzer greifen zudem zu Programmen wie Ad Block, um unangekündigt startenden Videos zu entgehen. Wenn Google dies nun selbstständig verhindert, könnte dies zu einer geringen Nutzerzahl für Ad Block (und damit mehr Werbemöglichkeiten für Google und seine Partner) führen. Darüber hinaus ist es anzunehmen, dass sich die Ladezeiten vieler Websites verbessern werden, sobald die oft wenig interessanten Flash-
Inhalte weggelassen werden.
Das langsame Ende von Flash kommt damit einen weiteren Schritt näher – SEOs sollten die Zeichen der Zeit entsprechend erkennen und ihre Seiten zukunftsfähig umrüsten.
31.05.2015: Google legt Nutzerzahlen offen
Google hält sich normalerweise sehr bedeckt, was die Nutzer-, Zugriffs- oder Verkaufszahlen anbelangt. Auf der I/O 2015 jedoch berichtete Google sehr ausführlich über die einzelnen Sparten und deren Zahlen.
Der Goolewatchblog.de hat diese Zahlen zusammengetragen.
Hier die ersten fünf – wer mehr wissen will, sollte sich den o. g. Beitrag einmal genauer ansehen.
- Google allein hat 1 Million Cardboards verkauft
- Google Chrome hat >1 Milliarde aktive Nutzer
- Die Websuche hat >1 Milliarde aktive Nutzer
- YouTube hat >1 Milliarde aktive Nutzer
- Google Maps haben mehr als 1 Milliarde aktive Nutzer
- GMail hat 900 Millionen Nutzer
29.05.2015: Google Identity Platform
Google stellt mit der Google Identity Platform App-Entwicklern eine Hilfe zur Seite, wenn es darum geht, sichere Logins zu Entwickeln.
Google-Sign In, Smart Look for Passwords und Identy Toolkit stehen hier im Fokus.
Die Seite ist auf Englisch. https://developers.google.com/identity/