Offpage-Optimierung Grundlagen

Core Web Vitals: LCP, INP und CLS verständlich erklärt

Patrick Tomforde · 8 Min. Lesezeit

Zuletzt aktualisiert: 02.05.2026

TL;DR:

Core Web Vitals sind drei messbare Performance-Metriken (LCP, INP, CLS), mit denen Google die Nutzererfahrung einer Seite bewertet. Sie sind seit 2021 Teil des Page-Experience-Signals und beeinflussen Rankings als Tiebreaker bei sonst gleichwertigen Suchergebnissen.

Core Web Vitals sind drei standardisierte Web-Performance-Metriken (Largest Contentful Paint, Interaction to Next Paint, Cumulative Layout Shift), die messen, wie schnell und stabil eine Webseite für reale Nutzer lädt und reagiert.

Seit 2021 sind Core Web Vitals offizieller Ranking-Faktor und seit 2024 hat INP den älteren FID-Wert abgelöst. Wir zeigen, was die drei Metriken messen, welche Schwellenwerte Google als gut bewertet, wie du sie systematisch verbesserst – und wie groß der tatsächliche SEO-Effekt ist (Spoiler: kleiner als oft vermutet, aber real).

Was misst LCP (Largest Contentful Paint)?

LCP misst die Zeit vom Start des Seitenaufrufs bis zum Rendern des größten sichtbaren Elements im Viewport. „Größtes Element“ ist meistens ein Hero-Bild, ein Video-Poster, ein H1-Block mit großer Schrift oder ein Hintergrundbild. Google bewertet LCP als gut, wenn es unter 2,5 Sekunden bleibt.

Die häufigsten LCP-Bremsen sind: ungeoptimierte Bilder (zu groß, falsches Format, kein Lazy Loading), langsame Server-Antwortzeit (Time to First Byte über 600 ms), render-blockierende Skripte oder CSS-Dateien, fehlende Preload-Hinweise für kritische Ressourcen.

Standard-Optimierungen: WebP/AVIF statt JPEG/PNG, Lazy Loading für Below-the-fold-Bilder (aber NICHT für das LCP-Element), CDN für statische Assets, kritisches CSS inline, weniger render-blockierende Skripte. In jeder zweiten Site bringt allein die Bildoptimierung 1-2 Sekunden LCP-Verbesserung.

LCPgrößtes Element INPInteraktion CLSLayout Shift Page ExperienceRanking-Signal

Was misst INP (Interaction to Next Paint)?

INP misst die Verzögerung zwischen einer Nutzerinteraktion (Klick, Tap, Tastendruck) und der nächsten visuellen Antwort der Seite. Google ersetzte 2024 die alte FID-Metrik durch INP, weil INP nicht nur die erste, sondern die schlechteste Interaktion einer Sitzung berücksichtigt – ein realistischeres Bild der Seitenreaktion.

Schwellenwert für „gut“: unter 200 ms. Über 500 ms gilt als schlecht. INP-Probleme entstehen meistens durch Long Tasks im JavaScript: einen Klick auf einen Button blockiert die JavaScript-Engine, weil ein Event-Handler 800 ms läuft. Dann fühlt sich die Seite eingefroren an.

Optimierungen: Long Tasks in kleinere Aufgaben splitten (requestIdleCallback, scheduler.yield), Drittanbieter-Skripte minimieren, Hydration kontrolliert ausführen (nur was sichtbar ist), Web Workers für rechenintensive Aufgaben. INP ist die schwerste der drei Metriken zu verbessern, weil sie tief in die JavaScript-Architektur greift.

Core-Web-Vitals-Schwellenwerte (Skala 0-100, höher=besser) LCP < 2,5s = gut90 INP < 200ms = gut85 CLS < 0,1 = gut92 LCP > 4s = schlecht25 CLS > 0,25 = schlecht20

Was misst CLS (Cumulative Layout Shift)?

CLS misst, wie stark sich Inhalte beim Laden visuell verschieben. Wer schon einmal auf einen Button klicken wollte, der sich kurz vor dem Klick um 50 Pixel verschoben hat, kennt das Problem: ein Werbebanner lädt nach, schiebt alle Inhalte nach unten, der Nutzer klickt versehentlich auf die Werbung. CLS beziffert diese Verschiebungen zwischen 0 und unendlich – Werte unter 0,1 gelten als gut.

Hauptverursacher: Bilder ohne explizite width/height-Attribute (Browser kann den Platz nicht reservieren), nachträglich eingeblendete Cookie-Banner und Werbeanzeigen, Web Fonts mit Fallback-Substitution (FOUT/FOIT), dynamisch eingefügte Iframes ohne Größenangabe.

Optimierungen sind oft trivial: explizite Dimensionen für Bilder/Videos/Iframes setzen, Container für Werbung mit Min-Höhe reservieren, font-display: optional oder swap mit präzise gematchten Fallback-Fonts. Eine sauber gebaute Seite erreicht CLS unter 0,05 ohne große Mühe.

Wie groß ist der SEO-Effekt der Core Web Vitals tatsächlich?

Der SEO-Effekt ist real, aber moderat. Google hat den Faktor mehrfach als Tiebreaker beschrieben: bei sonst gleichwertigen Inhalten kann eine bessere Performance den Ausschlag für die höhere Position geben. Bei deutlichen Inhalts- oder Autoritäts-Unterschieden bringt eine perfekte Performance allein keinen Sprung.

In der Praxis: Sites mit grünen Vitals erleben tendenziell stabilere Rankings nach Core Updates und höhere CTR durch bessere Nutzererfahrung. Der direkte Ranking-Boost ist messbar, aber selten dramatisch. Fast immer ist die mittelbare Wirkung über bessere Engagement-Signale (höhere Verweildauer, weniger Bounces) größer als der direkte Tiebreaker.

Wichtig: Core Web Vitals werden auf Page-Experience-Ebene bewertet, nicht site-wide. Eine einzelne langsame Seite zieht nicht die ganze Domain herunter, aber sie selbst kann an Sichtbarkeit verlieren. Die Optimierung lohnt also dort am meisten, wo organische Sichtbarkeit Geld bringt – Money-Pages und Top-Traffic-URLs zuerst.

Häufige Mythen über das Thema

Die folgenden Missverständnisse begegnen uns in fast jedem Audit-Workshop. Wer sie kennt, vermeidet typische Fehler.

Mythos: Lighthouse-Score 100 = perfekte Core Web Vitals.
Realität: Lighthouse misst Lab-Daten an einer einzelnen URL. Google bewertet Field-Daten (CrUX) realer Nutzer. Beide unterscheiden sich oft deutlich.
Mythos: CWV-Optimierung ist ein einmaliges Projekt.
Realität: Sie ist ein Dauerprozess. Jede neue Funktion, jedes neue Skript, jedes Werbeformat kann CWV verschlechtern.
Mythos: INP ist nur für Single-Page-Apps relevant.
Realität: INP betrifft jede Seite mit Interaktivität. Auch klassische Multi-Page-Sites mit Click-Handlern können INP-Probleme haben.
Mythos: Web Workers sind die Universal-Lösung für INP.
Realität: Sie helfen bei rechenintensiven Aufgaben. UI-Aktualisierungen müssen aber im Main Thread bleiben – Workers sind kein Allheilmittel.
Mythos: CLS lässt sich vollständig durch CSS lösen.
Realität: Die meisten CLS-Probleme sind mit CSS lösbar, aber dynamisches JavaScript-Verhalten (eingeblendete Banner, Lazy-Hydration) braucht ebenfalls Aufmerksamkeit.

Welche Tools liefern verlässliche CWV-Daten?

Lab-Daten kommen aus Lighthouse, PageSpeed Insights und WebPageTest. Sie sind reproduzierbar und ideal für Vorher-Nachher-Vergleiche im Optimierungs-Sprint. Lab-Werte unterscheiden sich aber oft deutlich von Field-Daten, weil reale Nutzer schwächere Geräte oder schlechtere Verbindungen haben.

Field-Daten kommen aus dem Chrome User Experience Report (CrUX). Google verwendet sie für die Page-Experience-Bewertung. Die GSC-Berichte zeigen CrUX-Daten in 28-Tage-Aggregation, PageSpeed Insights zeigen sie ebenfalls für die letzten 28 Tage.

RUM-Tools wie Sentry, Datadog, New Relic oder die opensource-Bibliothek web-vitals.js sammeln eigene Field-Daten. Sie sind teurer, liefern aber höchste Auflösung und ermöglichen Segmentierung nach Gerät, Region oder Nutzergruppe. Sinnvoll für Sites, die ihre Top-Quartil-Nutzer (75. Perzentil) gezielt auswerten wollen.

Wie integriere ich CWV-Optimierung in den Entwicklungs-Workflow?

Pre-Deployment-Checks sind das wichtigste Werkzeug. Lighthouse CI oder ein selbst gebautes Skript läuft als Teil der CI/CD-Pipeline und schlägt Alarm, wenn ein Pull Request CWV verschlechtert. So fallen Regressionen vor Live-Schaltung auf.

Performance-Budgets sind die zweite Komponente. Pro Seitentyp werden Maximal-Werte für JavaScript-Bundle-Größe, Bildgewicht, Anzahl Drittanbieter-Skripte definiert. Wer die Budgets überschreitet, muss vor Merge eine Begründung liefern – das verhindert schleichende Performance-Verschlechterung.

Monitoring ergänzt das Bild. RUM-Daten oder GSC-Alerts zeigen, wenn Field-Werte plötzlich schlechter werden. Häufige Ursachen: ein neues Drittanbieter-Skript, ein Theme-Update, ein Bild-Upload ohne Optimierung. Schnelle Identifikation ist die halbe Behebung.

Wichtig ist außerdem die organisatorische Verankerung: ein dediziertes Performance-Review jeden Sprint, in dem CWV-Trends und Lighthouse-CI-Reports gemeinsam mit Frontend-Lead und SEO besprochen werden. Ohne dieses Routine-Format verschiebt sich Performance immer wieder ans Ende der Prio-Liste – und die schleichende Verschlechterung wird erst gemerkt, wenn die Sichtbarkeit bereits gelitten hat. 30 Minuten pro Sprint reichen oft schon.

Weiterführende Artikel auf Digital Ultras

Folgende Beiträge vertiefen einzelne Aspekte und passen direkt in dein nächstes Audit:

Häufige Fragen

Wo sehe ich meine Core Web Vitals?

In der Google Search Console im Bericht „Core Web Vitals“ (Field-Daten aus CrUX) und in PageSpeed Insights (Lab + Field). Lighthouse zeigt Lab-Werte für einzelne URLs.

Wie oft aktualisiert Google Field-Daten?

Der CrUX-Datensatz wird täglich aktualisiert, die GSC-Berichte fassen jeweils 28-Tage-Zeiträume zusammen. Verbesserungen sind frühestens 4 Wochen nach Live-Schaltung sichtbar.

Welche Tools brauche ich für CWV-Optimierung?

PageSpeed Insights und Chrome DevTools für Diagnose, WebPageTest für tiefere Analyse, GSC für Field-Daten. Performance-Monitoring über RUM-Lösungen (Sentry, New Relic, Datadog) ergänzt das Bild.

Was ist der Unterschied zwischen LCP und FCP?

FCP misst, wann der erste Inhalt erscheint, LCP wann der größte sichtbare Inhalt erscheint. LCP ist die Ranking-relevante Metrik.

Hilft AMP für Core Web Vitals?

AMP forciert performante Defaults, garantiert aber keine grünen CWV. Moderne Web-Standards (responsive Bilder, Lazy Loading, schnelle CWV) erreichen vergleichbare Ergebnisse ohne AMP-Bindung.

Welche INP-Werte sind in Single-Page-Apps realistisch?

Mit Bedacht gebauten SPAs sind INP-Werte unter 200 ms erreichbar. Schwergewichtige Frameworks ohne Splitting kommen oft erst bei 300-500 ms an.

Wirken Core Web Vitals auf Mobile und Desktop gleich?

Nein, Google bewertet sie getrennt. Mobile Performance ist tendenziell wichtiger, weil mehr Suchen mobil stattfinden – Mobile-First-Index unterstreicht das.

Brauche ich für CWV einen CDN?

Bei globalem Publikum ja. Ein guter CDN (Cloudflare, Akamai, Fastly) verbessert TTFB und damit LCP deutlich, gerade bei Nutzern weit weg vom Ursprungsserver.

Fazit

Core Web Vitals sind eines der wenigen Ranking-Signale, das jede Site direkt messen und beeinflussen kann. Wer LCP unter 2,5 Sekunden, INP unter 200 ms und CLS unter 0,1 bringt, erfüllt Googles Page-Experience-Anforderungen und gewinnt nebenbei eine messbar bessere Conversion-Rate. Der direkte Ranking-Boost ist moderat, der mittelbare Effekt über Engagement-Signale größer – und beides zusammen lohnt jeden Optimierungs-Sprint, weil die Wirkung dauerhaft bleibt. Wir empfehlen, CWV-Optimierung als kontinuierliche Disziplin zu etablieren, nicht als einmaliges Projekt – nur so bleibt der Vorsprung dauerhaft erhalten.

Geschrieben von Patrick Tomforde

Patrick Tomforde ist zertifizierter Online Marketingfachwirt (BVDW) und Gründer sowie geschäftsführender Gesellschafter von Digital Ultras. Patrick Tomforde hat bereits eine erfolgreiche Linkbuilding Agentur gegründet und ist außerdem Buchautor und Speaker auf Fachkonferenzen wie dem SEO Day in Köln oder auch bei der IHK Stade.