Schritt‑für‑Schritt: Technisches SEO‑Audit – die komplette Checkliste für Website‑SEO‑Audit und Onpage‑Analyse

Einführung: Was ist ein technisches SEO‑Audit und warum sollten Sie jetzt eines durchführen?

Stellen Sie sich eine Website wie ein Gebäude vor. Ein technisches SEO‑Audit ist eine systematische Begehung dieses Gebäudes: Es sucht nach Baustellen, die Suchmaschinen daran hindern, Ihre Seiten zu crawlen, zu indexieren oder gut zu ranken – gebrochene Treppen, fehlende Wegweiser oder verschlossene Türen im Website‑Kontext. Mit einem SEO‑Audit‑Tool und Website‑Analyse‑Tool prüfen Sie systematisch, wo sich Nutzer und Bots die Füße stoßen.

Was macht ein technisches SEO‑Audit konkret?

  • Es crawlt Ihre Seite – etwa mit Screaming Frog – und kartiert jede Seite, erkennt defekte Links, duplicate Content, fehlerhafte Redirects und fehlende Meta‑Tags (klassische Aufgaben eines Onpage‑Audits / einer Onpage‑Analyse).
  • Es prüft die Indexierung und Abdeckung in Google Search Console, damit Sie wissen, was Google sehen kann und was nicht.
  • Es misst die Seitenperformance mit Lighthouse / PageSpeed Insights, denn Geschwindigkeit und mobile Nutzererfahrung sind wichtiger denn je.
  • Es nutzt Tools wie Ahrefs und SEMrush, um verwaiste Seiten, Crawl‑Fehler und Sichtbarkeitsprobleme aufzuspüren.
  • Es berücksichtigt plattformspezifische Eigenheiten – ja, das gilt besonders für Shopify‑Shops, wo Canonical‑Tags, strukturierte Daten und die Shop‑Performance extra Aufmerksamkeit benötigen (hier spricht man oft vom SEO‑Audit für Onlineshop oder E‑Commerce SEO‑Audit).

Warum jetzt handeln?
Weil das Beheben technischer Probleme oft schnelle Erfolge bringt: bessere Indexation, gesteigerte organische Sichtbarkeit und weniger verschwendete Crawl‑Zyklen. Kurz gesagt: Mehr Ihrer Seiten werden von Suchmaschinen gefunden, Sie ranken stabiler und verschwenden das Crawl‑Budget nicht an fehlerhafte oder doppelte Seiten. Ein regelmäßiger SEO‑Check hilft genau dabei.

Warum ist das Timing wichtig?
Google setzt auf Mobile‑First‑Indexing und Performance. Seiten, die mobil langsam oder schlecht strukturiert sind, verlieren Sichtbarkeit – selbst wenn die Inhalte hochwertig sind. John Mueller von Google betont immer wieder, dass eine saubere, gut strukturierte Site das Crawlen und Indexieren erleichtert und Ranking‑Reibungsverluste reduziert. Wenn Sie organischen Traffic sichern und ausbauen wollen, ist jetzt der richtige Moment.

Wo fangen Sie an?
Beginnen Sie mit einem Crawl (z. B. Screaming Frog), prüfen Sie in Google Search Console Coverage und mobile Probleme und führen Sie Lighthouse / PageSpeed Insights für Core‑Metriken aus. Ergänzen Sie das dann mit Ahrefs oder SEMrush für Link‑ und Wettbewerbsanalysen und führen Sie bei Bedarf ein spezielles SEO‑Audit für Onlineshop bzw. E‑Commerce SEO‑Audit durch.

Was bringt es Ihnen?

  • Schnellere Problemlösungen mit spürbaren Traffic‑Verbesserungen.
  • Klare Prioritäten, damit Sie nicht jeder SEO‑Modeerscheinung nachjagen.
  • Eine robustere Seite, die beim Ausbau von Inhalten oder Features mitwächst.

Ein technisches SEO‑Audit (auch Website‑SEO‑Audit oder SEO‑Audit Website genannt) ist die pragmatische Grundlage, die alle anderen SEO‑Maßnahmen effektiver macht. Sie brauchen keine Perfektion – nur weniger kaputte Treppen und offene Türen, damit Suchmaschinen und Nutzer möglichst ungehindert ans Ziel kommen.

Ready to try SEO with LOVE?

Start for free — and experience what it’s like to have a caring system by your side.

Start for Free - NOW

Aber wo fängst du an? Behandle die Vorbereitung wie die Planung eines Roadtrips: Strecke festlegen (Umfang), Etappenziele definieren (Ziele/KPIs) und das richtige Gepäck packen (Tools). Das spart später Zeit und verhindert, dass dein technisches SEO-Audit in eine zusammenhangslose Liste von To‑Dos ausartet.

Definiere den Umfang: Was genau auditierst du?

  • Seitentypen — Unterteile nach Startseite, Kategorieseiten, Produktseiten, Blogbeiträgen und Landingpages. Jede Seite verhält sich anders und hat unterschiedliche technische Anforderungen.
  • Plattformen — Prüfe Desktop und Mobile. Mobile‑First‑Indexierung bedeutet: Mobile Fehler können Desktop‑Erfolge zunichtemachen.
  • Kanäle — Berücksichtige, wie Nutzer Seiten finden: organische Suche, bezahlte Anzeigen, Social oder Marktplätze. Unterschiedliche Kanäle beeinflussen, welche Seiten Priorität haben.
    Warum das wichtig ist: Fokus verhindert Fehlalarme und hilft dir, Seiten zu priorisieren, die tatsächlich etwas bewegen — egal ob es um ein Website-SEO-Audit, ein Onpage-Audit oder eine Onpage-Analyse geht.

Setze klare Ziele und KPIs von Anfang an

  • Wähle messbare KPIs wie indexierte Seiten, organischer Traffic und Conversions.
  • Verknüpfe jeden KPI mit einem Business‑Impact: Geht es um mehr Traffic, bessere Produkt­sichtbarkeit oder höhere Checkout‑Raten?
  • Lege Basiswerte und Zeitrahmen fest, damit du Verbesserungen nach den Fixes zuordnen kannst.
    Was bringt das? Klare KPIs lassen sich beweisen und verhindern endlose „Optimierungen“ ohne messbares Ergebnis — wichtig beim SEO‑Check oder einem vollständigen SEO‑Audit Website.

Wähle die richtigen Tools für jede Fragestellung

  • Google Search Console — Nutze sie für Index‑Coverage, URL‑Inspektion und Suchanalyse. Sie zeigt, was Google tatsächlich sehen und indexieren kann.
  • Screaming Frog oder SEMrush — Crawle deine Site, um client‑ und serverseitige Probleme zu finden: kaputte Links, doppelte Title, robots‑Disallows, Redirects und Canonical‑Probleme. Wähle Screaming Frog für tiefgehendes technisches Crawling und SEMrush, wenn du Crawl‑Daten mit Keyword‑Sichtbarkeit kombinieren willst.
  • Lighthouse / PageSpeed Insights — Führe Lab‑ und Field‑Speed‑Tests für Performance, Accessibility und Best Practices durch. Page Speed ist oft ein schneller Hebel mit messbarem Effekt.
  • Ahrefs und SEMrush — Nutze diese Tools für Backlink‑Profile, organische Keywords und Wettbewerbslücken. Sie helfen, Seiten mit schnell erreichbarem organischem Potenzial zu priorisieren.
    Passe das SEO‑Audit‑Tool oder Website‑Analyse‑Tool der Fragestellung an: Index‑Abdeckung (GSC), Crawl‑Probleme (Screaming Frog/SEMrush), Geschwindigkeit (Lighthouse), Link‑/Keyword‑Intelligenz (Ahrefs/SEMrush).

E‑Commerce‑spezifische Checks und Tools

  • Plattform‑Spezifika sind wichtig. Bei Shopify oder Magento prüfe SEO‑Standardeinstellungen, Canonical‑Verhalten und URL‑Strukturen. Shopify ist schnell einsatzbereit, hat aber Eigenheiten bei Canonicals und Collections; Magento hat seine typischen Indexierungs‑ und Layered‑Navigation‑Themen.
  • Inspecte Produktfeeds (Google Merchant, Bing) und wie deine Plattform diese generiert — schlechte Feeds = verlorene Sichtbarkeit in Shopping‑Kanälen.
  • Validere strukturierte Daten (Product‑Schema, Reviews, Availability). Schema fördert Rich Results und die Klickrate.
    Warum das relevant ist: Ein SEO‑Audit für Onlineshop bzw. ein E‑Commerce SEO‑Audit muss zusätzliche Bestandteile abdecken — Inventar, Varianten und Feeds können die Auffindbarkeit brechen, wie es Content‑Sites nicht tun.

Ein paar praktische Tipps, bevor du den ersten Crawl startest

  • Starte mit einem Crawl einer repräsentativen Stichprobe: einige Startseiten, Top‑Kategorien und meistverkaufte Produktseiten. Crawl nicht nur die Startseite und gehe davon aus, der Rest sei in Ordnung.
  • Exportiere Listen aus Google Search Console (indexierte Seiten, Coverage‑Errors) und vergleiche sie mit deinem Crawl‑Output, um Abweichungen aufzuspüren.
  • Berücksichtige Hinweise von Google‑Experten wie John Mueller: Priorisiere, dass wichtige Inhalte indexierbar sind, und vermeide komplexe, unnötige Crawl‑Fallen. Sein Rat lautet oft: Konzentriere dich auf Seiten, die Nutzern wirklich etwas bringen.
  • Dokumentiere deine Checkliste und erwarteten KPIs, damit Stakeholder wissen, wie Erfolg aussieht — ob beim Website‑SEO‑Audit oder beim Onpage‑Audit.

Quick start toolset (minimal)

  • Google Search Console — Index‑Coverage und URL‑Checks
  • Screaming Frog oder SEMrush — Full‑Site‑Crawl
  • Lighthouse / PageSpeed Insights — Performance‑Tests
  • Ahrefs oder SEMrush — Backlinks und Keywords
  • Platform‑Checks — Shopify/Magento‑Einstellungen, Produktfeeds und Schema‑Validierung

Wenn du Umfang definierst, messbare Ziele setzt und die richtige Tool‑Mischung wählst, wird aus dem technischen SEO‑Audit ein wiederholbarer Prozess mit klaren Ergebnissen — kein Ratespiel mehr. Bereit, die Route zu kartieren und den Motor zu starten?

Warum das für dich wichtig ist: Wenn Suchmaschinen deine Seiten nicht erreichen oder nicht richtig interpretieren können, erscheinen sie nicht in der Suche — egal wie gut der Inhalt ist. Denk an Crawling wie an einen Supermarkt-Scanner: ist ein Barcode verdeckt oder die Ware verpackt, wird sie nicht gescannt. Genau darum geht es im technisches SEO-Audit und im Onpage-Audit: sicherzustellen, dass nichts verborgen ist oder widersprüchliche Signale sendet.

Step 1 — Überprüfe deine robots.txt (nicht einfach annehmen)

  • Öffne zuerst yoursite.com/robots.txt im Browser. robots.txt kann ganze Bereiche vom Crawling ausschließen, also achte auf weitreichende Disallow-Regeln (z. B. Disallow: /collections/ oder Disallow: /private/).
  • Nutze das Robots Testing tool in der Google Search Console, um konkrete URLs und User‑Agents zu testen.
  • Tipp: Nachdem du die Datei im Browser geprüft hast, starte einen Crawl mit Screaming Frog (es respektiert robots.txt standardmäßig). Screaming Frog meldet, welche URLs von robots.txt blockiert werden, so siehst du die tatsächliche Auswirkung.
  • Warum das wichtig ist: eine einzelne falsch platzierte Disallow-Regel kann Tausende Seiten vor der Indexierung verbergen — ein klassischer Punkt im SEO-Check.

Step 2 — Prüfe die Sitemap, die du in der Google Search Console eingereicht hast

  • In GSC unter Sitemaps: bestätige, dass die eingereichte Sitemap erfolgreich gelesen wurde, und notiere Anzahl verarbeiteter URLs und Fehler.
  • Achte darauf, dass wichtige URLs gelistet und nicht von robots.txt blockiert sind — Sitemap und robots.txt müssen übereinstimmen. Wenn deine Sitemap auf Seiten verweist, die robots.txt blockiert, sendest du widersprüchliche Signale.
  • Bei Shopify beachten: Shopify generiert Sitemaps automatisch und hat vordefiniertes Kanonikal-Verhalten; prüfe, ob Apps oder individuelle Templates keine ungünstigen URLs in die Sitemap eingefügt haben. Das ist besonders wichtig beim SEO-Audit für Onlineshop oder E‑Commerce SEO-Audit.

Step 3 — Setze Crawler und Site‑Tools ein, um Lücken aufzuspüren

  • Führe einen vollständigen Site‑Crawl mit Screaming Frog (oder einem Site Audit von Ahrefs/SEMrush) durch, um zu finden:
    • URLs, die von robots.txt blockiert sind
    • 4xx/5xx‑Fehler
    • doppelte Title/Meta‑Descriptions
    • Vorkommen von meta robots (noindex) und Canonical‑Tags
  • Screaming Frog kann JavaScript rendern (Chromium‑Modus), sodass du siehst, was Bots tatsächlich abrufen. Nutze Lighthouse / PageSpeed Insights, um zu prüfen, ob schweres JS oder langsame Ressourcen das Rendering/Crawling verhindern.
  • Ahrefs und SEMrush sind gute Ergänzungen als Website-Analyse-Tool bzw. SEO-Audit-Tool: sie zeigen etwa verwaiste Seiten, Sitemap‑Abweichungen und Indexierungsverluste, die du sonst übersehen könntest. Solche Tools sind nützlich im Onpage-Analyse oder beim Website-SEO-Audit.

Step 4 — Prüfe Canonical‑Tags und Signal‑Konsistenz

  • Canonical‑Tags sagen Google, welche Version indexiert werden soll. Sie müssen konsistent sein in:
    • rel=canonical im HTML
    • Canonicals in Sitemaps
    • internen Links, die auf die bevorzugte URL zeigen
    • Header‑Redirects (301)
  • Warum du das beachten musst: Eine Seite kann zwar crawlfähig sein, aber trotzdem nicht indexiert werden, wenn ihr Canonical auf eine andere URL zeigt. Das ist eine häufige, stille Ursache für fehlende Seiten.
  • Schnelle Prüfmethoden:
    • Screaming Frog zeigt die Canonical‑Angabe der Seite und welche Canonical Google gewählt hat.
    • In GSC Coverage und dem URL‑Inspection‑Tool siehst du, ob Google eine andere Canonical gewählt hat.
  • Hinweis: John Mueller empfiehlt wiederholt, Signale einfach zu halten — mische keine widersprüchlichen Direktiven (z. B. Seite in der Sitemap, aber meta noindex oder Canonical auf eine andere URL).

Step 5 — Nutze Google Search Console Coverage und URL Inspection

  • Coverage‑Report: scanne auf Fehler, valid with warnings und ausgeschlossene Elemente. Die Liste der Ausgeschlossenen zeigt oft:
    • „Crawled – currently not indexed“
    • „Discovered – currently not indexed“
    • „Duplicate without user‑selected canonical“ (deutet auf Canonical‑Probleme hin)
  • URL Inspection Tool: URL einfügen und:
    • sehen, ob sie indexiert ist und wenn nicht, warum.
    • die Live‑URL testen, um zu verifizieren, wie Googlebot die Seite rendert.
    • nach Fixes Indexierung anfordern.
  • Pro‑Tipp: Nutze die URL‑Inspektion, um zu vergleichen, was Google sieht vs. was ein Browser zeigt — diese Lücke offenbart oft Rendering‑ oder Canonical‑Probleme.

Quick practical checklist

  • Prüfe /robots.txt und teste wichtige URLs mit dem GSC Robots Tester.
  • Bestätige, dass die Sitemap in GSC eingereicht ist und „Last read“ kürzlich aktualisiert wurde.
  • Crawle die Seite mit Screaming Frog (JavaScript‑Rendering bei Bedarf einschalten).
  • Starte ein Site‑Audit mit Ahrefs/SEMrush für eine zweite Sicht (Website-Analyse-Tool / SEO-Audit-Tool).
  • Nutze Lighthouse/PageSpeed Insights, um zu bestätigen, dass Seiten rendern und nicht durch schweres JS blockiert werden.
  • Spot‑check für Canonical‑Tags und vergewissere dich, dass keine noindex‑Direktiven versehentlich gesetzt sind.
  • Verwende GSC Coverage und URL Inspection, bestätige den Indexierungsstatus und fordere nach Korrekturen eine Reindexierung an.

Final note — don’t overcomplicate signals
Du willst, dass Suchmaschinen pro Seite eine einzige, klare Anweisung erhalten. Wenn robots.txt, Sitemaps, Meta‑Tags, Header und Canonicals unterschiedliche Richtungen vorgeben, wählt Google eine davon — und das ist nicht zwingend die, die du beabsichtigt hast. Halte die Signale im technisches SEO-Audit / Website-SEO-Audit schlicht, überprüfe mit GSC und einem Crawler und behebe zuerst die kleinen Widersprüche. Gerade bei einem SEO-Audit für Onlineshop oder einem E‑Commerce SEO-Audit zeigen sich Indexierungsverbesserungen oft schneller, als du denkst.

Denk an deine Website wie an einen Bibliothekskatalog: Jede Seite ist ein Buch, und deine internen Links, Redirect‑Regeln und URL‑Struktur sind die Karteikarten, die Besuchern und Suchmaschinen sagen, wo die besten Titel zu finden sind. Unordentliche Karteikarten = verlorene Besucher und verschwendete Crawl‑Zeit. Wo fängst du also an und was ist wirklich wichtig?

Warum das für dich wichtig ist

  • Schnellere Auffindbarkeit und Indexierung deiner Money‑Pages sorgt für mehr organischen Traffic und Conversions.
  • Eine saubere URL‑Architektur reduziert Crawl‑Bloat und verhindert, dass Suchmaschinen Ressourcen auf Duplikate oder irrelevante Seiten verschwenden.
  • Redirects und defekte Links zu beheben erhält Link‑Equity und verbessert die Nutzererfahrung (weniger Dead Ends).

Wesentliche Bereiche für das Audit und praktische Checks

Internal linking

  • Why: Interne Verlinkung verteilt Autorität über deine Seite. Diese Autorität sollte zuerst zu den Seiten fließen, die am besten konvertieren oder am meisten Traffic bringen.
  • Quick wins: setze kontextuelle Links von trafficstarken Artikeln zu deinen Produkt‑ oder Lead‑Seiten; platziere Top‑Converter sichtbar in Navigation oder Footer.
  • Tools: nutze Google Search Console (Internal Links Report) sowie Ahrefs oder SEMrush, um zu sehen, welche Seiten bereits Link‑Equity haben. Führe einen Crawl mit Screaming Frog als SEO‑Audit‑Tool / Website‑Analyse‑Tool durch, um Link‑Depth zu kartieren und verwaiste Seiten zu finden, die nie interne Links erhalten.
  • How to prioritize: sortiere Seiten nach Traffic und Conversion‑Rate und füge dann 1–3 hochwertige interne Links zu deinen Prioritätsseiten hinzu.

Redirects and broken links

  • What to look for: falsche Verwendung von 301 vs. 302, Redirect‑Ketten, Loops und 4XX/5XX‑Fehler. Ketten verwässern Autorität und verlangsamen Nutzer.
  • Practical fixes:
    • Ersetze Redirect‑Ketten durch einen direkten 301 zum finalen Ziel.
    • Konvertiere temporäre 302er zu 301, wenn Inhalte dauerhaft verschoben sind.
    • Ersetze oder entferne defekte Links und aktualisiere externe/interne Referenzen.
  • Tools: Screaming Frog findet Ketten und Broken Links; Google Search Console zeigt Crawl‑Fehler; Ahrefs/SEMrush decken defekte eingehende Links auf. Für beste Ergebnisse serverseitige 301s verwenden.

Pagination

  • Problem: paginierte Reihen können Signale verwässern, wenn sie nicht bewusst gehandhabt werden.
  • Guidance: sorge dafür, dass Pagination‑Seiten über interne Links erreichbar sind. Für kurze Sammlungen kann eine „Alle anzeigen“-Seite sinnvoll sein. Google verlässt sich nicht mehr auf rel="next/prev" so wie früher — konzentriere dich auf eindeutige Verlinkung und korrekte Canonical‑Logik.
  • Tip: Wenn Seite 1 das Haupt‑Hub zu einem Thema ist, setze Canonicals bedacht; teste zuerst die Nutzererfahrung, bevor du massenhaft canonicals setzt.

Ecommerce faceted navigation (and parameterized URLs)

  • The risk: Filter, Sorts und Tag‑Parameter erzeugen riesige Mengen nahezu identischer URLs. Das führt zu Crawl‑Bloat und verschwendeten Index‑Plätzen.
  • Practical controls:
    • Canonicalization: weise Filterseiten auf die primäre Kategorie zurück, wenn der Inhalt im Wesentlichen gleich ist. Bedenke: Canonical ist ein starker Hinweis — John Mueller hat daran erinnert, dass es kein absoluter Befehl ist; nutze bei Bedarf mehrere Signale.
    • Noindex: setze Noindex für Filterseiten mit geringem Wert (z. B. selten genutzte Filterkombinationen). Hinweis: Noindex verhindert Indexierung, stoppt aber nicht unbedingt das Crawlen.
    • Parameter handling / server-side fixes: konsolidiere Filter serverseitig oder nutze URL‑Rewriting, um Kombinationen zu reduzieren. Wenn deine Plattform es zulässt, implementiere saubere URLs statt langer Parameterstrings.
    • Robots and Sitemaps: untersage nutzlose URL‑Muster und nimm nur kanonische Kategorie/Produkt‑URLs in die Sitemap auf.
  • Shopify note: auf Shopify sind facettierte Navigation und tag‑basierte URLs häufige Ursachen. Nutze serverseitige Lösungen oder geprüfte Apps, um Filter‑URLs zu konsolidieren, und achte darauf, dass Canonical/Noindex‑Regeln für Collection‑Filterseiten korrekt gesetzt sind. Ein gezieltes SEO‑Audit für Onlineshop / E‑Commerce SEO‑Audit lohnt sich hier besonders.

Crawl budget and duplicate pools

  • Symptoms: viele Low‑Value‑URLs in Coverage, unerklärliche Crawl‑Spitzen oder schlechte Indexierung.
  • Actions:
    • Nutze Screaming Frog als Website‑SEO‑Audit‑Tool, um Duplikate und parameterisierte URL‑Familien zu finden.
    • Prüfe echte Crawl‑Aktivität und Coverage‑Probleme in Google Search Console.
    • Analysiere Server‑Logs (oder GSC Crawl Stats), um zu sehen, womit Googlebot Zeit verbringt.
    • Entferne oder reduziere Low‑Value‑Seiten aus Sitemaps und interner Verlinkung.

Performance and crawl behavior

  • Schnellere Seiten werden effizienter gecrawlt und indexiert. Verwende Lighthouse / PageSpeed Insights (als Teil eines SEO‑Checks oder Onpage‑Audits), um Performance‑Bottlenecks zu finden, die indirekt beeinflussen, wie oft Suchmaschinen zurückkommen.

Final checklist to act on now

  • Run a full crawl with Screaming Frog to map link depth and locate orphan pages.
  • Review internal link distribution via Google Search Console, Ahrefs, or SEMrush and prioritize links to converting pages.
  • Fix redirect chains and broken links; prefer server-side 301s.
  • Audit faceted navigation: apply canonicalization, noindex, parameter handling, or server-side consolidation to prevent crawl bloat. (On Shopify, evaluate apps or theme-level fixes.)
  • Use Lighthouse/PageSpeed Insights to remove performance bottlenecks that hurt crawl efficiency.
  • Remember John Mueller’s guidance: canonical is a hint — combine techniques when you need certainty.

Bereit für den ersten Schritt? Starte einen Crawl mit Screaming Frog und einen Coverage‑Report in Google Search Console, wähle dann die drei wichtigsten konvertierenden Seiten aus und stelle sicher, dass sie interne Link‑Liebe bekommen. Kleine, fokussierte Verbesserungen in einem technisches SEO‑Audit oder Website‑SEO‑Audit bringen oft schnell messbare Ergebnisse.

Warum das wichtig ist (kurz und knapp)
Wenn Seiten langsam laden oder die mobile Variante ausgedünnt ist, verliert man zwei Dinge: Sichtbarkeit in der Suche und echtes Geld durch abspringende Besucher. Google bewertet Geschwindigkeit und Stabilität – Nutzer auch. Diese Probleme zu beheben verschiebt sowohl Rankings als auch Conversion‑Zahlen. Das gehört in jedes technisches SEO‑Audit und sollte Teil Ihres Website‑SEO‑Audit bzw. SEO‑Audit Website oder SEO‑Check sein.

Core Web Vitals: der Ranking‑Faktor, den man nicht ignorieren kann
Die Core Web Vitals (LCP, CLS und Interaktionsmetriken wie INP / historisch FID) fließen in Googles Ranking‑Bewertung ein — messen Sie mit Lighthouse oder PageSpeed Insights und priorisieren Sie Fixes, die LCP und CLS senken. Denken Sie an diese Metriken als schnelle Beurteilung dafür, wie schnell und stabil eine Seite wirkt. LCP = wahrgenommene Ladegeschwindigkeit, CLS = Layout‑Stabilität, INP/FID = Reaktionsschnelligkeit bei Interaktionen.

Quick audit checklist — what to measure first

  • Führen Sie PageSpeed Insights (Field + Lab Data) und Lighthouse (Lab) für eine repräsentative Auswahl an Seiten aus.
  • Prüfen Sie den Core Web Vitals‑Report in der Google Search Console für Real‑User‑Feld‑Daten und welche URLs ausfallen.
  • Crawlen Sie die Seite mit Screaming Frog (als Website‑Analyse‑Tool) um zu große Assets, fehlerhafte Bilder und blockierte Ressourcen zu finden.
  • Nutzen Sie Ahrefs oder SEMrush, um Seiten mit Traffic‑Verlusten zu identifizieren und diese mit CWV‑Fehlern abzugleichen.

Priorisieren Sie nach Wirkung: Konzentrieren Sie sich auf Seiten, die sowohl für Traffic/Conversions wichtig sind als auch schlechte LCP/CLS‑Werte haben. Dieser erste Schritt gehört in jeden Onpage‑Audit / Onpage‑Analyse und eignet sich als schneller SEO‑Check.

Konkrete Maßnahmen zur Reduzierung von LCP
Verringern Sie das, was der Browser tun muss, bevor der größte sichtbare Inhalt erscheint:

  • Bilder optimiert und responsiv ausliefern (WebP/AVIF, wo unterstützt).
  • CDN verwenden, Bilder komprimieren; serverseitig auf die tatsächliche Gerätgröße skalieren.
  • Render‑blockierendes JavaScript entfernen oder verzögern und kritisches CSS priorisieren, damit das Hero‑Element schnell malt.
  • Server‑/TLS‑Antwortzeiten verbessern (schnelles Hosting, Keep‑Alive, richtiges Caching).

Diese Maßnahmen bringen in der Regel die größten und schnellsten Gewinne bei LCP.

Wie man CLS (Layout‑Verschiebungen) in den Griff bekommt
CLS überrascht Entwickler oft, weil es um nachträgliche Verschiebungen nach dem Paint geht:

  • Platz für Bilder, Ads und Embeds reservieren mit expliziten Breiten/Höhen oder CSS aspect‑ratio.
  • Fonts so laden, dass FOIT/FOUT vermieden werden (font‑display: optional oder swap, sorgfältig testen).
  • Kein Einfügen von Inhalten oberhalb vorhandener Inhalte (z. B. nachträglich einblendende Banner).

Mit Lighthouse messen und Rückgänge in den Feld‑Daten über die Google Search Console bestätigen.

Interaktionsmetriken: INP/FID einfach erklärt
Historisch hat FID die Verzögerung der ersten Interaktion gemessen; Google bewegt sich Richtung INP (Interaction to Next Paint), um die generelle Interaktivität abzubilden. Lange Tasks reduzieren:

  • Schweres JS in kleinere Tasks aufteilen.
  • Code‑Splitting und Verzögerung nicht‑kritischer Skripte einsetzen.
  • Für Low‑Priority‑Arbeit Worker oder idle callbacks in Betracht ziehen.

Mobile‑First‑Indexing — was Sie prüfen müssen
Beim Mobile‑First‑Indexing zählt die mobile Version für das Ranking. Wenn die mobile Seite ausgedünnt ist, ranken Sie so, als wäre das alles, was Sie haben. Prüfen Sie Content‑Parität und technische Elemente:

  • Mobile Seiten sollten die gleichen Titel, Meta‑Tags, strukturierte Daten und Hauptinhalte wie Desktop enthalten.
  • Stellen Sie sicher, dass der mobile Viewport korrekt konfiguriert ist und keine wichtigen Ressourcen blockiert werden.
  • Testen Sie auf realen mobilen Geräten oder nutzen Sie PageSpeed Insights’ Mobile‑Simulation für realistischere Ergebnisse.

Mobile Ladezeit optimieren, weil Konversionen davon abhängen
Langsame Mobile‑Seiten kosten Rankings und Conversions. Fokus auf:

  • Responsive Bilder, Lazy‑Loading unterhalb der Falz und moderne Formate.
  • Kritisches CSS inline für Above‑the‑Fold‑Inhalte; den Rest verzögern.
  • Schnelle Server‑Antworten und optimierte TLS‑Handshakes — Mobile‑Netze haben oft hohe Latenz.
  • Unnötige Apps oder Widgets entfernen (Shopify‑Stores sind besonders anfällig für Aufblähung). Das ist wichtig bei einem SEO‑Audit für Onlineshop oder einem E‑Commerce SEO‑Audit.

Plattform‑Hinweis: Shopify‑spezifische Tipps
Bei Shopify sind Theme‑Code und Apps häufige Ursachen. Auditieren Sie installierte Apps, nutzen Sie Shopifys Bild‑Einstellungen oder ein CDN und bevorzugen Sie schlanke Themes. Beachten Sie das Liquid‑Rendering von Shopify beim Verzögern von Skripten — manche Features hängen vom Theme‑Markup ab. Diese Punkte sollten in jedem SEO‑Audit für Onlineshop und Website‑SEO‑Audit untersucht werden.

Tools und wie man sie praktisch kombiniert (praktische Paarungen)

  • Google Search Console: Feld‑CWV überwachen und problematische URLs entdecken (unverzichtbar im Website‑SEO‑Audit).
  • Lighthouse / PageSpeed Insights: Lab‑Issues reproduzieren und lokal debuggen; als SEO‑Audit‑Tool nützlich für schnelle Checks.
  • Screaming Frog: Seiten mit großen Ressourcen, fehlenden Dimensionen oder blockiertem JS/CSS finden (Website‑Analyse‑Tool).
  • Ahrefs / SEMrush: Seiten mit Traffic‑Rückgängen identifizieren und priorisieren, wo Fixes am meisten bringen.

Und merken Sie sich John Mueller (Google): Core Web Vitals und Geschwindigkeit sind wichtig, aber Relevanz und Content‑Qualität treiben Rankings. Performance ist tendenziell das Zünglein an der Waage und ein Conversion‑Booster, ersetzt aber keine guten Inhalte.

Validierungs‑ und Rollout‑Strategie

  • Beheben Sie Erstmaßnahmen mit hoher Wirkung auf einer kleinen Menge priorisierter Seiten.
  • Retesten Sie mit Lighthouse und prüfen Sie Feld‑Verbesserungen in der Google Search Console über einige Wochen.
  • Setzen Sie A/B‑Tests oder Funnel‑Monitoring ein, um sicherzustellen, dass auch die Conversion‑Metriken besser werden.

Abschließende praktische Tipps
Starten Sie bei den Seiten, die Umsatz oder Traffic bringen — nicht beim gesamten Projekt gleichzeitig. Ziel: zuerst LCP und CLS, danach die langen JS‑Tasks, die Interaktivität beeinflussen. Messen Sie sowohl im Lab (Lighthouse/PageSpeed Insights) als auch im Feld (Google Search Console) und iterieren Sie. Ein strukturiertes Onpage‑Audit / Onpage‑Analyse oder der Einsatz eines SEO‑Audit‑Tools kombiniert mit einem soliden Website‑Analyse‑Tool bringt Sie schneller zurück in die Rankings und macht Besucher zufriedener — genau darum geht’s.

Warum diese Signale wichtig sind (kurz)
Stell dir eine Seite wie dein LinkedIn-Profil vor: der Meta Title ist dein Name, die Meta Description dein Elevator Pitch. Fehlen sie oder sind sie auf allen Seiten identisch, wissen Suchende nicht, welches Ergebnis passt — und Google auch nicht. Meta-Titel und -Beschreibungen beeinflussen die Click‑Through‑Rate (CTR) und sollten einzigartig und aussagekräftig sein. Duplicate Content und fehlende Metadaten verwässern Ranking‑Signale und erschweren das indexieren — genau das Gegenteil von dem, was du willst. Ein schnelles technisches SEO‑Audit oder Website‑SEO‑Audit deckt solche Basics oft als erstes auf.

Wesentliche Punkte, die du prüfen solltest

  • Meta titles & descriptions: einzigartig, beschreibend, passende Länge, Zielkeywords natürlich einbauen.
  • Duplicate content & canonicals: pro Inhalts‑Cluster eine klare kanonische URL; Duplikate entfernen oder zusammenführen.
  • hreflang: immer Self‑References einbauen und wechselseitige hreflang‑Links, damit die richtige Sprach-/Region‑Variante ausgeliefert wird.
  • Structured data (Product, Review): vollständig und korrekt, damit Rich Results sichtbar werden und die CTR im E‑Commerce steigt.
  • Performance‑Signale: Seiten müssen akzeptabel laden — Lighthouse / PageSpeed Insights helfen hier.

Praktische Audit‑Schritte (erst das hier)

  1. Crawl die Seite mit Screaming Frog. Exportiere:
    • Titles, Meta Descriptions, H1s.
    • Canonical‑Tags und hreflang‑Annotationen.
    • Reports zu doppelten Titeln & Beschreibungen.
  2. Prüfe Google Search Console:
    • Coverage‑Report auf Indexierungsprobleme.
    • Enhancements (Structured Data) und International Targeting (hreflang).
    • Performance‑Report, um CTR‑Effekte organischer Snippets zu sehen.
  3. Nutze Ahrefs oder SEMrush:
    • Content‑Cannibalization und doppelte Inhalte aufspüren.
    • Organische Keywords & Seiten mit niedriger CTR finden — Chancen für Meta‑Rewrites.
  4. Teste structured data:
    • Google’s Rich Results Test und den Structured Data‑Report in GSC verwenden.
    • Product‑Schema‑Felder prüfen: name, image, description, sku, brand, offers (price, availability, currency), aggregateRating, review.
  5. Rendering und UX mit Lighthouse / PageSpeed Insights prüfen — langsame Seiten senken Engagement und können Sichtbarkeit indirekt beeinflussen.

E‑Commerce‑Spezifika: Product‑ und Review‑Schema
Structured Data ist dein Schaufenster. Korrekt implementiertes Product‑Schema und Review‑Schema erlaubt es Suchmaschinen, Preis, Verfügbarkeit und Bewertungen anzuzeigen — was die CTR für E‑Commerce‑Seiten zuverlässig erhöht. Achte darauf:

  • Offers enthalten Preis, Währung, Verfügbarkeit und gültige Markup‑Angaben.
  • aggregateRating und review sind korrekt und entsprechen dem auf der Seite sichtbaren Inhalt.
  • Keine Auszeichnung für Inhalte, die hinter Login liegen oder von Dritt‑Widgets generiert werden.
    Bei Shopify werden teilweise schon Schema‑ und Canonical‑Tags automatisch erzeugt. Prüfe das Theme‑Output auf doppelte Produkt‑JSON‑LD und entferne Duplikate. Apps zur Schema‑Anreicherung können helfen, aber immer mit dem Rich Results Test validieren. Ein E‑Commerce SEO‑Audit sollte diesen Punkt unbedingt abdecken.

hreflang: richtig machen oder Verwirrung riskieren
Hreflang muss eindeutig sein: jede Seite, die auf Sprach‑/Regionsvarianten verweist, braucht eine Self‑Reference und die Links müssen reziprok sein. Einfach gesagt: wenn Seite A Seite B als französische Version kennzeichnet, muss Seite B zurück auf A zeigen. John Mueller (Google) hat diese Anforderungen wiederholt betont — sie sind nicht optional, wenn du sprachspezifische Indexierung zuverlässig willst. Implementiere hreflang im Head, über Sitemap oder HTTP‑Header, aber vermeide das Mischen von Methoden für dieselben URLs. Nutze GSCs International Targeting Report und Screaming Frog’s hreflang‑Report zur Verifikation.

Typische technische Fallstricke und Lösungen

  • Doppelte Meta‑Templates (z. B. Shopify Collections/Products): eigene Templates anlegen oder produkt­spezifische Werte in Meta‑Felder injizieren.
  • Canonical‑Konflikte mit hreflang: sicherstellen, dass Canonicals hreflang nicht außer Kraft setzen. Bei wirklich separaten Varianten self‑referentielle Canonicals bevorzugen.
  • Unvollständiges Schema oder Widerspruch zum sichtbaren Inhalt: nur das auszeichnen, was tatsächlich auf der Seite steht (Preis sichtbar? dann mit marken).
  • Performance‑Blocker auf Produktseiten: mit Lighthouse große Bilder, Third‑Party‑Scripts oder langsame Serverantworten identifizieren.

Schnelle Checkliste, die du heute laufen lassen kannst

  • Screaming Frog Crawl → Duplicate Titles/Descriptions exportieren.
  • Google Search Console öffnen → Enhancements und Coverage prüfen → Fehler beheben.
  • Rich Results Test auf repräsentativen Produktseiten durchführen.
  • hreflang‑Paare und Self‑References mit Screaming Frog oder einer Tabelle validieren.
  • Ahrefs/SEMrush nutzen, um Seiten mit niedriger CTR zu finden und Meta‑Rewrites zu priorisieren.

Warum das für dich wichtig ist
Das Beheben dieser On‑Page‑technischen Signale macht deine Seiten für Suchmaschinen klarer und für Nutzer attraktiver. Ergebnis: bessere Indexierung, weniger verschwendete Ranking‑Power und höhere Klickraten — besonders relevant, wenn jede CTR‑Prozentstelle für deinen E‑Commerce‑Umsatz zählt. Fang klein an, messe Änderungen in der Google Search Console und iteriere. Ein strukturiertes technisches SEO‑Audit oder ein gezielter SEO‑Check bringt schnell kumulative Verbesserungen — nutze bei Bedarf ein Website‑Analyse‑Tool oder SEO‑Audit‑Tool, um den Prozess zu beschleunigen.

If your Google rankings don’t improve within 6 months, our tech team will personally step in – at no extra cost.


All we ask: follow the LOVE-guided recommendations and apply the core optimizations.


That’s our LOVE commitment.

Ready to try SEO with LOVE?

Start for free — and experience what it’s like to have a caring system by your side.

Conclusion

Du hast die Probleme identifiziert — jetzt brauchst du einen klaren, messbaren Plan, um sie zu beheben und nachzuweisen, dass die Maßnahmen wirken. Im Folgenden findest du einen praktischen Aktionsplan, den du sofort verwenden kannst: Wie du priorisierst, umsetzt, überwachst und regelmäßige technische Kontrollen planst, damit die Probleme nicht wiederkommen.

Priorisieren nach erwartetem Effekt

  • Fix high-traffic or conversion‑critical pages first. Konzentriere dich zuerst auf Seiten mit hohem Traffic oder hoher Conversion‑Relevanz. Diese Seiten beeinflussen Umsatz und Sichtbarkeit am stärksten. Nutze Analytics und Tools wie Ahrefs oder SEMrush, um die Seiten zu identifizieren, die organischen Traffic und Conversions liefern. Dort bringen kleine Änderungen große Renditen.
  • Next, tackle site‑wide technical waste. Behebe dann systemweite technische Bremsen — z. B. doppelte facettierte URLs oder endlose Parameterkombinationen, die das Crawl‑Budget verheizen und Suchmaschinen davon abhalten, deine wichtigen Seiten zu finden. Screaming Frog deckt solche Muster auf.
  • Then handle medium/low priority items. Mittel- und niedrigprioritäre Aufgaben wie dünne Inhalte, Meta‑Anpassungen oder einzelne Performance‑Verbesserungen folgen danach.
    Warum diese Reihenfolge? Du setzt auf den höchsten Return-on-Effort: Gewinne dort, wo Nutzer und Suchmaschinen ohnehin hinschauen, und räum dann die Systeme aus dem Weg, die sie blockieren.

Create a focused action plan

  • Liste jedes Problem mit: page(s) affected, priority, expected impact, owner, staging/deploy date, and roll-back plan.
  • Arbeite mit kurzen, zeitlich begrenzten Aufgaben (Sprint‑Style), damit du Änderungen schnell auslieferst und messen kannst.
  • Baue Testschritte ein: lokale/Entwicklungsprüfungen und QA auf einer Staging‑Umgebung — besonders wichtig bei verwalteten Plattformen wie Shopify, wo Themes und Apps das Verhalten verändern können.
  • Wähle für jede Aufgabe das passende Tool: Screaming Frog für Crawl und Struktur, Lighthouse / PageSpeed Insights für Performance und Core Web Vitals, und Ahrefs/SEMrush für Sichtbarkeit und Backlink‑Kontext. Ein gutes SEO-Audit-Tool oder Website-Analyse-Tool kann viele dieser Schritte automatisieren, vor allem für ein umfassendes Website-SEO-Audit oder einen regelmäßigen SEO-Check.

Monitor changes and measure impact

  • Tracke Sichtbarkeit und Indexierung mit Google Search Console: Prüfe nach jeder Änderung den Performance‑Report (Impressionen, Klicks, CTR, Position) sowie Index Coverage und das URL Inspection‑Tool.
  • Messe Nutzerverhalten und Conversions mit deiner Analytics‑Lösung (z. B. GA4). Fokus: organische Sessions, Engagement/Bounce auf den reparierten Seiten und Conversion‑Kennzahlen.
  • Überwache Performance‑Signale mit Lighthouse / PageSpeed Insights und den Core Web Vitals‑Berichten. Führe Tests vor und nach den Änderungen aus und exportiere die Ergebnisse als klare Baseline.
  • Führe ein Change Log bzw. Tracking: Notiere für jeden Deploy die Änderung, das Datum, Verantwortliche, Tickets/PRs und Links zu Before/After‑Reports. Diese Single Source of Truth spart Zeit bei der Fehlersuche.
  • Sei geduldig, aber wachsam. Wie John Mueller (Google) SEO‑Praktikern immer wieder erklärt hat, brauchen Indexierung und Ranking Zeit — rechne je nach Änderung und Größe der Website mit 2–6 Wochen Überwachungszeit.

Practical monitoring checklist (post‑deploy)

  • Submit or request indexing in Google Search Console for important URLs.
  • Compare impressions/clicks/position for the affected pages (GSC) week-over-week.
  • Check organic sessions and conversion metrics in analytics.
  • Re-run Lighthouse / PageSpeed Insights and record Core Web Vitals.
  • Re-crawl with Screaming Frog to ensure no unexpected redirects, duplicate content, or new errors surfaced.

Schedule and automate recurring audits

  • Frequency: Führe ein vollständiges technisches Audit monatlich für große oder E‑Commerce‑Sites, und vierteljährlich für kleinere Seiten durch. Ein E‑Commerce‑SEO‑Audit oder ein SEO-Audit für Onlineshop ist besonders wichtig, weil solche Seiten häufiger Änderungen und höhere Crawl-/Transaktionsanforderungen haben.
  • Automatisiere, wo es geht: Plane wiederkehrende Site‑Audits in SEMrush oder Ahrefs, schedule Command‑Line‑Crawls mit Screaming Frog und integriere Lighthouse CI oder die PageSpeed Insights API in deine CI für Performance‑Monitoring. Ein gutes SEO-Audit-Tool bzw. Website-Analyse-Tool reduziert manuellen Aufwand.
  • Bei Plattformen wie Shopify: Führe Checks nach Theme‑ oder App‑Updates durch — diese Änderungen können neue Crawl‑Probleme oder Performance‑Regressionen einführen.
  • Nutze Alerts: Richte E‑Mail- oder Slack‑Benachrichtigungen für plötzliche Anstiege an 4xx/5xx‑Fehlern, Index Coverage‑Drops in Google Search Console oder starke Verschlechterungen der Core Web Vitals ein.

Conclusion — keep the momentum
Betrachte das als regelmäßige Wartung mit Zinseszinseffekt. Priorisiere die Seiten, die am meisten zählen, behebe systemische Crawl‑Verschwendungen als nächstes und messe alles mit Google Search Console, Analytics und Performance‑Tools wie Lighthouse / PageSpeed Insights. Logge jede Änderung in einem Tracker, damit du Ursache und Wirkung verknüpfen kannst, und plane regelmäßige Audits (monatlich für große/E‑Commerce‑Sites, vierteljährlich für kleinere), damit kleine Probleme nicht zu großen werden.

Starte mit einer Top‑5‑Liste: die fünf Seiten mit dem höchsten Traffic oder der besten Conversion, plus das größte einzelne Crawl‑Budget‑Problem. Weise Verantwortliche zu, implementiere die Fixes und beobachte die Daten. Mit konsequenter Überwachung — und etwas Geduld, wie John Mueller empfiehlt — wirst du messbare Verbesserungen sehen und Regressionen verhindern, bevor sie deine Sichtbarkeit kosten.

Author - Tags - Categories - Page Infos

Questions & Answers

Ein technisches SEO-Audit ist eine systematische Überprüfung der Infrastruktur Ihrer Website – Aspekte wie Crawlability, Indexierbarkeit, Seitenladegeschwindigkeit, Mobile-Freundlichkeit und strukturierte Daten. Man kann es als Gesundheits-Check sehen, der Probleme aufdeckt, die Suchmaschinen daran hindern, Ihre Seiten zu verstehen und zu bewerten.
Weil technische Probleme Ihre besten Inhalte vor Suchmaschinen und Nutzern verbergen können. Diese zu beheben verbessert die Sichtbarkeit, die Indexierung und die Nutzererfahrung – was häufig zu mehr organischem Traffic und Conversions führt.
Beginnen Sie mit Crawlability und Indexierbarkeit: Prüfen Sie robots.txt, die Sitemap und die Google Search Console auf Crawling-Fehler und indexierte Seiten. Anschließend prüfen Sie Seitenladegeschwindigkeit, mobile Nutzbarkeit und sichere Verbindungen (HTTPS).
Verwenden Sie eine Kombination aus kostenlosen und kostenpflichtigen Tools: Google Search Console und PageSpeed Insights, einen Site-Crawler (Screaming Frog oder Sitebulb), Google Analytics und einen Uptime/SSL-Checker. Tools zum Testen strukturierter Daten und zur mobilen Prüfung sind ebenfalls hilfreich.
Häufige Probleme sind in robots.txt blockierte Seiten, fehlende oder fehlerhafte Sitemaps, Duplicate Content und doppelte Tags, langsame Seitenladezeiten, Fehler bei der mobilen Nutzbarkeit, defekte Links sowie fehlende oder fehlerhaft formatierte strukturierte Daten.
Priorisieren Sie nach Einfluss und Aufwand: Beheben Sie zuerst alles, was die Indexierung blockiert oder ernsthafte Nutzerprobleme verursacht (z. B. robots-Regeln, Canonical-Fehler und HTTPS-Probleme), danach Verbesserungen bei Geschwindigkeit und UX und schließlich geringfügige Punkte wie kleinere Anpassungen strukturierter Daten.
Führen Sie ein vollständiges Audit mindestens zweimal pro Jahr durch und kurze Prüfungen monatlich oder sofort nach größeren Änderungen an der Website (Site-Migrationen, Template-Updates oder umfangreiche Inhaltsänderungen).
Bei einer kleinen Website lässt sich ein grundlegendes Audit in ein bis zwei Tagen durchführen. Mittelgroße bis große Websites benötigen typischerweise mehrere Tage bis einige Wochen, abhängig von Komplexität und Umfang der erforderlichen Fehlerbehebungen.