Hey Google – so kann ich nicht arbeiten!

Eure Vital-Metriken ver­än­dern sich offen­bar will­kür­lich. Ruft man z.B. immer ein und die­sel­be URL via API im Abstand von zehn Sekunden auf, erhält man einen Score-Wert von 40 bis 80 (von jeweils 100). Man muss nur lan­ge genug abru­fen, dann erhält man frü­her oder spä­ter einen Wert, der von Gelb auf Grün oder von Rot auf Gelb springt. Die Metriken sind für den nor­ma­len Webbetreiber und auch für Experten nicht trans­pa­rent oder durchschaubar!

Im Januar die­ses Jahres hat Google über https://web.dev/better-layout-shift-metric/ zu Feedback auf­ge­ru­fen, weil die Berechnung des CLS-Wertes wohl diver­se Probleme macht. Reichlich spät für eine im Mai (!) ange­kün­dig­te Verwendung für das Ranking. Die neu­es­te Verlautbarung ist nun, dass die Auswirkungen der Core Vitals nur sehr gering aus­fal­len wer­den und wei­ter­hin die Qualität des Inhalts domi­nant wich­tig sei.

Also same pro­ce­de­re as every year? Wie damals bei HTTPS, Speed, und Mobil? Starker Druck über die Ankündigung als Rankingfaktor, Verlängerung der Einführung als Rankingfaktor, dann Abmilderungsaussagen bezüg­lich der Wirkung und am Ende nach dem Eingang in die Bewertung: Nichts oder fast nichts zu spü­ren? Wir müs­sen es uns fast wünschen!

Zum einen sind die Werte der Vitals objek­tiv gese­hen noch immer zu trans­pa­rent, vola­til und machen kei­nen ver­trau­ens­er­we­cken­den Eindruck. Wie soll man opti­mie­ren und prü­fen, ob und was man erreicht hat, wenn die Werte so krass schwan­ken? Wenn es Zufall ist, zu wel­cher Tagessekunde man auf den Button „Analyse“ drückt?

Wenn durch blo­ßes Betrachten einer Seite Werte im Browser ent­ste­hen kön­nen, die jeden gemit­tel­ten Wert spür­bar hin zum Schlechteren schie­ben kön­nen und oft in absur­de Höhen? Darf man Googles Messungen ver­trau­en, wenn sie über 16 Sekunden Ladezeit für ein Element (aller­dings das größ­te) der Seite her­aus­kal­ku­lie­ren und den Gesamtindexwert pro Klick von 15 auf über das Doppelte auf 33 inner­halb von nur drei Minuten hin und her schwankt? Selbst MediaMarkt besteht den Core-Web-Vital-Test nicht.

 

Wie soll Kalle Klein mit sei­nem Shop je bes­ser sein als die­se Verkaufsgiganten mit ihren Armeen von Systemtechnikern? Langsam, aber sicher gehen einem die Möglichkeiten aus, noch Begeisterung zu zei­gen. Man fühlt sich, als müss­te man ein chi­ne­si­sches Kreuzworträtsel lösen, wäh­rend man gleich­zei­tig von einem Tiger gefres­sen wird.

Natürlich muss und soll­te man es im Sinne der Webnutzer begrü­ßen, wenn zu lang­sa­me Webseiten schnel­ler wer­den, unnüt­ze „Unser-Firmengebäude“-Slider ver­schwin­den, bei denen sich der Augapfel frei­wil­lig kom­pos­tie­ren möch­te, Bildschirmelemente nicht wild hin und her hüp­fen oder es nach einem Klick auf ein Element eine gefühl­te Ewigkeit dau­ert, bis die Seite reagiert. Wenn man­che CSS-Datei oder Monster-JavaScript-Dateien die u.a. auch zum Sprengen von U‑Bahn-Tunneln ver­wen­det wer­den, end­lich ent­schlackt wer­den. Die der­zeit aber halb gar wir­ken­den Vorgabewerte sind lei­der so gestal­tet, dass man bei tief­ro­ten Messwerten und einem kon­trol­lie­ren­den Aufruf der Webseite über das Handy dort eben kei­ner­lei ech­te Hindernisse bemer­ken kann. Sollen wir unse­re Webseiten etwa so ver­bie­gen, dass Google „rich­tig“ rech­nen kann?

 

 

Hat jemand tat­säch­lich beim Aufruf von zalando.de mehr als 16 Sekunden gewar­tet? Laut der Berechnung von Google scheint die Webtechnik von Zalando eher einem YPS-Heft ent­nom­men wor­den zu sein, statt einer sicher­lich wohl­über­wach­ten Systemtechnik.

Man kann nur hof­fen, dass Google hier ein Einsehen für die Sorgen der Verantwortlichen hat, nach­ar­bei­tet, mehr erklärt und vor allem sta­bi­le­re, zuver­läs­si­ge und plau­si­ble Messwerte zur Verfügung stellt. Entweder haben sie die­se ver­läss­li­chen Werte schon jetzt vor­lie­gen – dann bit­te her damit. Oder sie haben eben kei­ne (sie­he die­ser Beitrag) – und dann haben die­se Metriken zumin­dest beim vor­lie­gen­den, von außen erkenn­ba­rem Sachstand noch lan­ge nichts in den Rankingalgorithmen ver­lo­ren. Auch nicht bei „nur wenig Auswirkungen“, denn eine Verschlechterung um auch nur eine Position beim Ranking kann je nach Keyword, Branche und den Umständen für die Betroffenen bereits Umsatzeinbrüche bedeu­ten. Und auch eine kon­tro­vers dis­ku­tie­re Kennzeichnung/Hervorhebung von Ergebnissen, die den Test bestan­den haben, beein­flusst natür­lich die Klickentscheidung der Suchenden. Wir reden also über ech­tes Geld, das durch halb gar wir­ken­de Messungen durch Google seit Mai ein­fach „umver­teilt“ wird.

Am 10.03. die­ses Jahres ver­kün­de­te Johannes Henkel von Google in einem Forum übri­gens die neu­es­ten Zahlen.

Er schreibt:

- 47,99 % of ori­gins had good LCP
– 89,46 % of ori­gins had good FID
– 45,99 % of ori­gins had good CLS
– 21,98 % of ori­gins had good LCP, FID and CLS

Nicht ein­mal 22 % aller gemes­sen Webseiten haben also Googles neu­en Messwert-Test bestan­den! Aber bis Mai ist ja auch noch viel Zeit. <Ironiemodus:aus>. Ach ne.. Ist ja schon Juni. Na dann …

 

 

Über Ferkan Saglamsoy

Über Ferkan Saglamsoy

Ein Allrounder – Web-Strategie, Blogging, Sys-Admin, Tech-Unternehmer, Designer, Kreativkopf, Marketingspezialist. Über 10 Jahre WordPress Design, Entwicklung, Hosting, Geschwindigkeitsoptimierung, Produktberater, Marketing, Monetarisierung. Das alles mache ich.

Über Ferkan Saglamsoy

Über Ferkan Saglamsoy

Ein Allrounder – Web-Strategie, Blogging, Sys-Admin, Tech-Unternehmer, Designer, Kreativkopf, Marketingspezialist. Über 10 Jahre WordPress Design, Entwicklung, Hosting, Geschwindigkeitsoptimierung, Produktberater, Marketing, Monetarisierung. Das alles mache ich.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Weitere interessante und aktuelle Beiträge: