Fachlich kompetent
Äußerst flexibel
Absolut zuverlässig
SEO

Wie beeinflusst Dein Webdesign Deine SEO-Rankings?

Google hat es bestätigt: Änderungen am Layout können sich – auch wenn alles andere gleich bleibt – durchaus auf das Ranking auswirken. Die Frage, die dabei in mir hochkam war: Wie misst und bewertet Google Webdesign? Da wir dazu leider keine konkreten Angaben bekommen, hilft es nur, zu spekulieren! Was ich immer sehr gerne tue und meine Gedanken dann mit euch teile:
Glaskugel
Nachdem ich letzte Woche Fragen zum Thema Webdesign und SEO beantwortet habe, heute das Thema für Fortgeschrittene. 🙂

Das Video von John Müller

Vorab hier das Video von John Müller, zur entsprechenden Stelle vorgespult. Ein Webmaster hatte ihn gefragt, ob Änderungen am Layout – wenn alles andere gleich bleiben würde – sich auf das Ranking bei Google auswirken können.

Wirkt sich das Design auf das Ranking konkret aus?

Johns Antwort ist „Ja“. Er spricht im Video dann zwar eher vom Title-Tag, von interner Verlinkung und anderen Onpage-Faktoren, meint also mit Layout deutlich mehr als nur das Design. Er spricht auch den sogenannten Supplementary Content an. Dieser bezeichnet alles, was nicht der Main (=Haupt)-Content ist. Es ist nur logisch, dass dieser zusätzliche Inhalt sich auch auf das Ranking auswirken kann.

Aber gilt das auch für das Design? Unsere Beobachtungen lassen das schon seit vielen Jahren vermuten. Das Design ist meiner Meinung nach spätestens seit Google Panda (also seit 2011) fester Bestandteil in der Rankingberechnung. Ein für den User schlechtes Design kann zu schlechten Rankings führen. Ein gutes Design kann sich positiv auswirken. Und das auch dann, wie John  erklärt, wenn sich wirklich nur das Layout ändert und sämtlicher Content und Code auf der Website gleich bleibt. Dafür spricht auch, dass Google empfiehlt URLs in der Search Console zu rendern und nachzusehen, ob die gerenderte Version mit der tatsächlichen Version übereinstimmt.

Wie wirkt sich das Design auf das Ranking konkret aus?

Nun verlassen wir die offensichtliche Schiene und machen ein paar Gedankenspiele, was genau passieren könnte und wie Google Design „messen“ könnte.

Da gibt es verschiedene Möglichkeiten:

  1. Manuelle Ratings von Quality Ratern, im Sinne der „Page Quality“: Die könnte Google genau dann auslösen, wenn sich das Design bei einer größeren Anzahl an URLs ändert. Dies könnte einen sogenannten „Flag“ auslösen, also ein Signal, dass sich bei einer Domain etwas Ungewöhnliches tut. Nach einem Flag schickt Google mehrere unterschiedliche Quality Rater auf die Website, die dann die URL bewerten. So geht Google (Gerüchten zufolge) bei unnatürlichen Links manchmal vor, aber auch für ein Redesign würde das funktionieren. Ändert sich die Bewertung der URL, dann ändert sich auch das Rating insgesamt. So arg viele Relaunches gibt es in Deutschland nicht, das geht personell locker bei Google. Aber es ist doch sehr aufwendig.
  2. Messung von „gut“ mittels einer K.I.:  Aus meiner Sicht die denkbar schlechteste Variante, da so nur Einheitsbrei-Designs als gut bewertet würden. Neuartige, aber für den User gute Lösungen, würden dabei verlieren. Ich selbst habe einmal im Rahmen der SMX München einen solchen Test gefahren, bei dem eine Google-K.I. Shops nach gut oder schlecht bewerten sollte. Das System funktioniert für den Großteil der Shops wunderbar genau. Wer aber traditionelle Barrieren sprengt und ein außergewöhnliches, aber gutes Design hat, der hatte keine Chance. Die K.I. will Konventionen sehen, von Neuerungen hält Machine Learning recht wenig. Google würde mit dieser Methode das Web quasi einfrieren. Zudem ist K.I. ressourcenintensiv und damit teuer. Möglich ist es, skalierbar und praktikabel aber eher weniger.
  3. Userdaten / Browserdaten / Short Clicks benutzen: Google hat mehrfach bestätigt, dass Daten aus Google Chrome, Android oder schlichtweg Klickdaten nicht direkt in das Ranking mit einfließen. Indirekt tun sie es aber sehr wohl. Die neuen Google Core Web Vitals sprechen ja auch explizit davon, dass sie Felddaten verwenden. Durch den recht tiefen Einblick darin, wie First Input Delay oder Largest Contenful Paint berechnet werden, bekommt man eine gute Ahnung, wie sehr sich Google anstrengt objektiv messbare Werte zu bekommen, die – wenn sie sagen „das ist nicht gut“ – auch vertretbar nach außen objektiv nicht gut sind.

Google hat sicher gute Methoden, um mittels K.I. das Design einer Website zu bewerten. Das wäre allerdings nicht nur mit Problemen behaftet, die immer von Machine Learning ausgehen (wie etwa, dass ungewohnte Neuerungen aus dem Raster fallen). Wichtiger ist vermutlich, dass K.I. sehr ressourcenintensiv und damit teuer ist. Gehen würde es, es wäre aber die denkbar teuerste Lösung. Ob das einem Konzern gefällt, der bereits bei der Umstellung des Crawlings mit dem neuesten Chrome-Browser „geknausert“ hat?

Wir können Dir helfen!

Suchst Du eine kompetente, flexbile und zuverlässige Online-Marketing-Agentur? Wir freuen uns auf Deine unverbindliche Anfrage.

Kontaktiere uns

Wie könnte es sein? Meine Theorie

Ich denke, dass es ein Mix aus allen drei Punkten ist. Wichtig ist vor allem die objektive Messbarkeit. Wann ist ein Design nicht gelungen? Das darf nicht von einem oder wenigen Menschen beurteilt werden.

  • Manuelle Ratings werden vielleicht nach wie vor noch benutzt. Zwar werden sie offiziell nur verwendet, um Daten für die Ingenieure zu sammeln, allerdings sind diese Daten wirklich sehr gut, von geschulten Quality Ratern und es sind viele Daten. Das Web ist gar nicht so groß wie man meint und wenn Google jede URL 3x pro Jahr raten würde, hätten sie einen guten Schnitt daraus, wie gut die URL wirklich ist. Hier kann ich aber auch grob falsch liegen und solche Daten wurden und werden nie direkt in die Page Quality mit einberechnet. Ich habe Gerüchte in die Richtung gehört, aber ich zweifle stark daran, dass hier etwas dran ist. Es wäre einfach ein sehr anfälliges System, dazu noch halbautomatisch und irgendwie hemdsärmelig.
  • K.I.-Daten werden vermutlich gar nicht benutzt. Wenn, dann weit rudimentärer, als wir SEOs es uns vorstellen. Richtig aufwendige K.I. ist zu teuer für solche Belange: das kostet einfach zu viel Rechenkapazität. Ich kann mir aber vorstellen, dass die K.I. sich einen Datenpunkt ansieht, der zum Beispiel überprüft „Ist der Main Content Front and Center?“ und nach dem Rendern ein Ja oder Nein vergibt. So etwas kann eine K.I. mittlerweile sehr zuverlässig und es ist nicht wertend, hat also keine Gefahr, dass Innovationen verdrängt werden. Wenn der Main Content nicht sofort sichtbar ist, dann sind alle User damit unzufrieden. Wir haben mit dem Largest Contentful Paint eine ähnliche Kennzahl, die Google bereits öffentlich kommuniziert hat. Da müssten Sie nur noch einen Check einbauen „Largest Contentful Paint is not Main Content“ und fertig hat ist die Überprüfung.
  • Userdaten / Browserdaten / Short Clicks: Was man immer wieder von Google Ingenieuren hört, ist, dass Userdaten sehr noisy sind, also viele Störgeräusche dabei sind, die schwer zu trennen sind. Ich glaube nicht, dass diese Daten für das keywordbezogene Ranking benutzt werden. Kein Algorithmus sagt vermutlich, „Wir verbannen diese Seite für das Keyword „Handtaschen kaufen“ auf Seite zwei, weil die Short Clicks zu hoch sind.“ Aber vielleicht gibt es eine Kennzahl wie Overall Page Quality, die sagt „Die Short-Klick-Rate dieser Domain ist sehr hoch, also hat sie vermutlich keine hohe Qualität. Vielleicht noch einmal zur Erklärung: Ein Short Click ist es, wenn ein Nutzer für „Handtaschen kaufen“ das erste Ergebnis anklickt, die Website besucht und danach auf die Google Suche zurück klickt und das zweite (oder ein anderes) Ergebnis anklickt. So kann man sehr zuverlässig sagen, dass er mit dem ersten Ergebnis nicht zufrieden war. Und hier kann ich als Google ganz objektiv Beobachtungen machen, wenn sich das Webdesign ändert. Verringern sich die Short Clicks nach einem Relaunch, dann sind die User grundsätzlich zufriedener. Die Overall Page Quality steigt und damit dann langfristig auch die Rankings. Für Browser- und Userdaten spricht zudem, dass die Rankings bei einem missglückten Redesign nicht direkt in den Keller fallen, sondern meist treppenartig stetig abfallen – vorausgesetzt es haben sich keine gravierenden technischen Fehler, wie fehlende Weiterleitungen, robotst.txt-Sperrungen oder ungewollte No-Index-Tags eingeschlichen. Das bedeutet im Klartext, dass die Nutzerdaten eben nicht sofort zur Verfügung stehen, sondern irgendwie erst gesammelt und kumuliert werden.

In aller Kürze:

Ganz knapp gesagt könnte es zwei Arten von Daten geben, die über das Webdesign entscheiden. Objektiv direkt messbare Daten, die Google ohne weiteres messen kann, wie „Ist der Main Content Front and Center“. Und dann objektiv wahrnehmbare Daten wie Short Clicks und Browserdaten. Auf die Art und Weise wird vermutlich ein Qualitätswert für die gesamte Domain, vielleicht aber auch eher für den Seitentyp berechnet und anschließend mit in die Qualitätsbewertung der Website einberechnet.

Proof?

Für beide meiner Theorien gibt es bereits Beispiele, die ähnlich funktionieren und die Google – zumindest demnächst – ins Ranking mit einfließen lässt. Zum einen Largest Contentful Paint, das ist der Wert, der automatisiert ausliest, wann der größte sichtbare Contentblock geladen ist. Dazu muss Google natürlich wissen, was der größte Contentblock ist – und das geht bereits automatisiert.

Zum anderen diejenigen Core Web Vitals, die nur richtig gut mit sogenannter Field Data funktionieren. Das sind Daten von echten Usern, die deutlich genauer sind als Hochrechnungen. First Input Delay, ebenfalls innerhalb der Core Web Vitals, arbeitet mit solchen Felddaten. Der Chrome User Experience Report funktioniert mit diesen Felddaten, genauer gesagt mit Google Chrome Daten. Dort heißt es: „The Chrome User Experience Report provides user experience metrics for how real-world Chrome users experience popular destinations on the web.“ Chrome Userdaten werden also nicht unbedingt für das Ranking herangezogen, aber für die Bewertung der Qualität einer Website durchaus.

Was bedeutet das für Dein Redesign / Deinen Relaunch?

Das Design hat Auswirkungen auf das Ranking. Es wird vermutlich objektiv gemessen. Zum einen anhand harter Fakten, zum anderen spielen Userdaten von Google Chrome vermutlich eine Rolle. Letzteres erklärt, warum das Ranking bei missglückten Design-Relaunches oft treppenartig in den Keller rutscht: Die Userdaten müssen sich erst aktualisieren, Änderungen machen sich erst über die Zeit bemerkbar. Gleiches passiert bei guten Relaunches. Oft ist das Ranking bei einem guten Relaunch zu Beginn fast gleich, die positiven Folgen kommen meistens erst in den folgenden Wochen und nicht sofort direkt danach.

Für Dein Redesign bedeutet das im Prinzip nichts Neues: Halte den User im Fokus, kümmere Dich hier um ein ansprechendes und vor allem gut nutzbares Design. Trotzdem könntest Du künftig auch mit mehr als nur einem Auge auf die Google Core Web Vitals schielen – das solltest Du aber sowieso.

Was ist Eure Meinung zum Thema? Habe ich Recht? Liege ich falsch? Ich freue mich über Euren Input!

Foto: redhumv / Gettyimages.de Foto2: halbergman / Gettyimages.de

Brauchst Du Hilfe? Suchst Du eine gute Online-Marketing-Agentur? Wir sind für Dich da! Wir freuen uns auf Deine unverbindliche Anfrage.
+43 5356 20719 10 info@seokratie.at Oder kontaktiere uns über das Formular: Jetzt kontaktieren

Kommentiere diesen Beitrag

Deine E-Mail Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert. Mit Klick auf den Button "Kommentieren" akzeptierst du unsere Datenschutzverordnung.

Werde fit in SEO und Content Marketing!
Unser kostenloser SEO-Kurs bringt Dir 5 Tage lang täglich SEO-Wissen in Dein E-Mail-Postfach und unseren Newsletter.
Abonnieren
​Du kannst Dich jederzeit wieder abmelden.
close-link