NaN in JavaScript verstehen: Ursachen, Lösungen und Praxistipps für Entwickler und technisches SEO (Screaming Frog & Google Search Console)
Denk an deine Website wie an ein Haus: tolle Möbel (Content) und gute Empfehlungen (Links) sind wichtig – aber wenn die Türen verschlossen sind und die Adresse falsch, findet dich niemand. Genau das regelt technisches SEO (technische Suchmaschinenoptimierung): ob Suchmaschinen deine Seiten crawlen, indizieren und wirklich verstehen können. Können sie das nicht, nützen weder Content noch Links für Sichtbarkeit.
What crawlability and indexability mean for you
- Googlebot ist der automatische Crawler, der versucht, deine Seiten zu besuchen. Trifft er auf gesperrte Seiten, defekte Links oder verwirrende Weiterleitungen, kann er den Wert deiner Seite nicht an die Suchergebnisse weitergeben.
- Nutze Google Search Console (ehemals Google Webmaster-Tools / Webmaster-Tools), um zu sehen, was Google indexieren kann und was nicht. Sie ist deine direkte Sicht aus Sicht der Suchmaschine.
- Tools wie Screaming Frog helfen dir, einen Crawl zu simulieren, damit du Probleme findest, bevor Google sie entdeckt. Lade dir den Screaming Frog SEO Spider (Screaming Frog Download), führe einen Crawl durch und exportiere die Ergebnisse für dein SEO-Check oder SEO-Audit.
Why speed, mobile readiness and HTTPS matter
Du kannst großartigen Content haben, aber Nutzer und Suchmaschinen bewerten die Experience. Site speed, mobile readiness und sichere HTTPS-Verbindungen beeinflussen Rankings und Nutzerverhalten direkt. Langsame Seiten verlieren Besucher; nicht mobile-fähige Seiten werden bei Mobile-First-Indexierung benachteiligt; unsichere Seiten wirken unseriös.
- Miss die Geschwindigkeit mit Lighthouse / PageSpeed Insights — sie zeigen dir, wo Sekunden verschenkt werden.
- Mobile-Probleme zeigen sich im Nutzerverhalten und in den Mobile-Berichten der Google Search Console.
- HTTPS ist unverhandelbar: Es ist sowohl ein Ranking- als auch ein Vertrauenssignal.
Help search engines actually understand your content
Strukturierte Daten sind wichtig. Schema.org-Markup ist wie Haftnotizen auf deinen Seiten, die erklären, was jeder Content-Baustein ist — Produkt, Bewertung, Event, Rezept — damit Suchmaschinen reichhaltigere Ergebnisse anzeigen können.
Quick, measurable wins you can expect
Das Beheben technischer Probleme bringt oft schnelle, messbare Verbesserungen. Schließt du einen wichtigen Crawl-Fehler, bereinigst eine Duplicate-Content-Schleife oder optimierst eine langsame Template-Seite, steigen Impressionen und Klicks häufig binnen Tagen bis Wochen.
- Warum? Weil technische Fixes die Blockaden zwischen deinem Content und den Suchmaschinen entfernen.
- Selbst John Mueller von Google rät Teams regelmäßig, zuerst klare technische Probleme zu beheben — das ist praktisch und wirkt oft schnell.
Where to start (practical first steps)
- Starte mit einem technischen SEO-Audit / schnellen SEO-Check: Überblick über Coverage und Sitemap in der Google Search Console.
- Crawl die Seite mit Screaming Frog bzw. dem Screaming Frog SEO Spider (bei Bedarf per Screaming Frog Download) und finde Fehler, Weiterleitungen und doppelte Meta-Tags.
- Teste die Performance mit Lighthouse / PageSpeed Insights und pack die wichtigsten Probleme zuerst an.
- Prüfe Backlinks und organische Sichtbarkeit mit Ahrefs, um prioritäre Seiten zu identifizieren.
- Ergänze oder valide Schema.org-Markup für Inhaltsarten, die von Rich Snippets profitieren.
Bottom line: Technisches SEO ist das Fundament. Behebe die Basics und du hebst den Wert von Content und Links. Fang diese Woche mit ein paar gezielten Checks an — du wirst wahrscheinlich schnelle, messbare Verbesserungen sehen, die tiefergehende Arbeit rechtfertigen.
Ready to try SEO with LOVE?
Start for free — and experience what it’s like to have a caring system by your side.
Start for Free - NOW
Was ist technisches SEO (technische Suchmaschinenoptimierung) — und was fällt darunter (Site‑Struktur, Indexierung, Crawling, Ladegeschwindigkeit, Mobile, Schema, Sicherheit) — Tools & Checks: Screaming Frog, Screaming Frog SEO Spider (Screaming Frog Download), Google Search Console / Google Webmaster‑Tools (Webmaster‑Tools) für SEO‑Audit und SEO‑Check
Technisches SEO ist die Hausinstallation und das Gerüst, das Suchmaschinen erlaubt, Ihre Inhalte zu finden, zu verstehen und anzuzeigen. Es geht nicht um die Worte auf der Seite, sondern darum, wie diese Worte an Google und andere Suchmaschinen geliefert werden. Kurz gesagt: Ist das technische Fundament wackelig, bleibt guter Content oft unsichtbar — unabhängig von Qualität oder Relevanz. Ein schneller SEO-Audit oder SEO-Check deckt solche Blockaden auf.
What’s included
- Seitenstruktur: wie Seiten organisiert und verlinkt sind.
- Crawlability & Indexierung: wie Googlebot Seiten entdeckt und speichert.
- Seitengeschwindigkeit: wie schnell Seiten für Nutzer und Bots laden.
- Mobile-first-Bereitschaft: die mobile Seite gilt als primär (Google hat ab ca. 2020 standardmäßig auf Mobile-First-Indexierung umgestellt).
- Strukturierte Daten (Schema.org): maschinenlesbare Hinweise, die Suchmaschinen helfen, Rich Results anzuzeigen.
- Sicherheit (HTTPS): eine sichere Seite wird erwartet und beeinflusst Vertrauen und Sichtbarkeit.
Why this matters to you
Betrachten Sie technisches SEO als Karte und Ampeln auf dem Weg Ihrer Seiten in die Suchergebnisse. Wenn Googlebot Ihre Seiten nicht abrufen oder interpretieren kann, spielt bester Content keine Rolle. Mit gezielten Maßnahmen stellen Sie sicher, dass Google Seiten findet und so anzeigt, wie es sein sollte — und das ist genau das Ziel jedes SEO-Audits.
Core areas explained (and what to check first)
-
Seitenstruktur
Warum wichtig: Eine klare Struktur hilft Nutzern und Suchmaschinen, wichtige Seiten schnell zu finden.
Schnellcheck: Erreicht ein Nutzer jede wichtige Seite in drei Klicks? Spiegeln URLs und Navigation thematische Gruppierungen wider?
Tools: Screaming Frog (auch als Screaming Frog SEO Spider bekannt) und Ahrefs für Site-Exploration und Berichte zur internen Verlinkung. Tipp: Ein Screaming Frog Download ermöglicht lokale Crawls für tiefere Analysen. -
Crawlability & Indexierung
Warum wichtig: Kann Googlebot eine Seite nicht crawlen oder haben Sie sie versehentlich blockiert, erscheint sie nicht in der Suche.
Schnellcheck: Prüfen Sie den Indexierungsstatus in Google Search Console (früher Google Webmaster-Tools / Google Webmaster-Tools genannt). Suchen Sie nach robots.txt-Blockaden, noindex-Tags oder Canonical-Problemen.
Pro-Tipp: John Mueller empfiehlt oft die URL-Inspektion in der Search Console, um zu sehen, wie Googlebot eine Seite wahrnimmt. -
Seitengeschwindigkeit
Warum wichtig: Geschwindigkeit beeinflusst Nutzerzufriedenheit und Rankings — langsame Seiten verringern Engagement und können abgewertet werden.
Schnellcheck: Führen Sie Lighthouse / PageSpeed Insights aus, um konkrete Diagnosen (Bildoptimierung, render-blockierende JS/CSS, Serverantwortzeiten) zu erhalten.
Tools: Lighthouse / PageSpeed Insights plus Felddaten in der Search Console für echte Nutzermetriken. -
Mobile-first-Bereitschaft
Warum wichtig: Seit ~2020 nutzt Google die mobile Version Ihrer Seite als Hauptquelle für Indexierung und Ranking. Fehlt Content oder strukturierte Daten mobil, indexiert Google genau das.
Schnellcheck: Vergleichen Sie mobile vs. Desktop-Inhalt und strukturierte Daten. Nutzen Sie den Mobile Usability-Report in der Search Console und die mobilen Audits von Lighthouse. -
Strukturierte Daten (Schema.org)
Warum wichtig: Schema.org-Markup kennzeichnet Inhalte — etwa Events, Produkte oder FAQs — damit Suchmaschinen Rich Results erzeugen können.
Schnellcheck: Validieren Sie strukturierte Daten mit dem Rich Results Test in der Search Console. Verwenden Sie die passenden Schema.org-Vokabulare für Ihren Inhalt.
Tools: Schema-Testing in der Search Console und Browser-Extensions zum schnellen Inspektieren von Markup. -
Sicherheit (HTTPS)
Warum wichtig: HTTPS schützt Nutzer und ist ein Vertrauenssignal für Suchmaschinen. Mixed Content oder abgelaufene Zertifikate können Crawling und UX stören.
Schnellcheck: Stellen Sie sicher, dass jede Seite zu HTTPS weiterleitet, beheben Sie Mixed-Content-Fehler und prüfen Sie Zertifikate sowie HSTS-Einstellungen.
Practical toolset and workflow
- Nutzen Sie Google Search Console als Kontrollzentrum für Indexierung, Coverage-Fehler und Mobile-Reports — die Search Console ersetzt die alten Webmaster-Tools.
- Führen Sie einen Crawl mit Screaming Frog / Screaming Frog SEO Spider durch, um versteckte technische Probleme zu identifizieren; bei Bedarf den Screaming Frog Download nutzen.
- Messen Sie Geschwindigkeit mit Lighthouse / PageSpeed Insights und priorisieren Sie Änderungen nach dem größtmöglichen Nutzer-Wert.
- Ergänzen Sie mit Ahrefs zur Analyse der Linkstruktur und zur Auffindung von Waisen-Seiten.
- Denken Sie immer daran: Googlebot ist der Crawler, der entscheidet — kann Googlebot nicht abrufen, wird nicht indexiert.
Simple starter checklist
- Bestätigen Sie Mobile-First-Indexierung: vergleichen Sie mobil vs. Desktop und schließen Sie Lücken.
- Auditieren Sie die Coverage in der Google Search Console und beheben Sie gemeldete Fehler.
- Starten Sie einen Crawl mit Screaming Frog, um Weiterleitungen, noindex-Tags und defekte Links zu finden.
- Verbessern Sie Core Web Vitals anhand der Empfehlungen aus Lighthouse.
- Ergänzen oder validieren Sie Schema.org-Markup für Inhalte, die von Rich Results profitieren.
- Erzwingen Sie HTTPS über die gesamte Seite und beheben Sie Mixed-Content-Probleme.
Final note
Technische Suchmaschinenoptimierung ist methodisch, nicht magisch. Fragen Sie sich: Welcher dieser Bereiche blockiert im Moment Ihre besten Seiten? Starten Sie dort, nutzen Sie die Tools (inkl. Google Search Console / Webmaster-Tools-Hinweisen und Screaming Frog) und setzen Sie kleine, messbare Verbesserungen um. Die Wirkung zeigt sich in verbessertem Crawl-Verhalten und steigender Sichtbarkeit bei Google.
Unverzichtbare Tools für die technische Suchmaschinenoptimierung (technisches SEO): Screaming Frog (Screaming Frog SEO Spider) und Google Webmaster‑Tools (Google Search Console) – Anleitung, Screaming Frog Download, SEO‑Audit & SEO‑Check
Why these tools, and what’s in it for you?
Denk an diese Tools wie an eine Pre‑Flight‑Checkliste für deine Website: Sie helfen dir, die lockeren Schrauben zu finden, bevor Google sie bemerkt. Kombiniert zeigen sie dir kaputte Seiten, falsche Canonicals, schlechte Mobilfunktionen und langsame Seiten schneller — so kannst du Probleme beheben, die direkt Indexierung, Rankings und Nutzervertrauen beeinflussen. Ideal für ein pragmatisches SEO‑Audit oder schnellen SEO‑Check im Bereich technisches SEO / technische Suchmaschinenoptimierung.
Screaming Frog — your local crawler
- What it is: Screaming Frog (oft als Screaming Frog SEO Spider bezeichnet) ist ein Crawler, den du lokal auf deinem Rechner ausführst, um die Verlinkung und Rückgabewerte deiner Seiten zu spiegeln.
- What it finds: Nutze ihn, um 404s, Redirect Chains, Duplicate Titles und Seitenstruktur‑Probleme aufzudecken, die Inhalte für Crawler verbergen.
- Key limit: Die kostenfreie Version crawlt bis zu 500 URLs — ideal für kleine Websites oder Stichproben; eine Vollversion hebt diese Begrenzung auf.
- How to use it quickly:
- Point Screaming Frog at your site and run a crawl.
- Filter for Client Error (4xx) to list broken pages and plan redirects or fixes.
- Check the Redirect Chains report — break long chains into single redirects.
- Use the Duplicate and Page Titles reports to clean up thin or repeated metadata.
- Export the reports and prioritize fixes by traffic or business value.
- Tipp: Für den Einstieg such nach Screaming Frog Download auf der offiziellen Seite, installiere die App und starte einen ersten Crawl als Basis für dein technisches SEO.
Google Search Console (a.k.a. Google Webmaster Tools) — the official ground truth
- What it is: Google Search Console ist das offizielle Dashboard von Google, das die Signale zeigt, die Google für deine Website verwendet.
- Why you must use it: Sie liefert offizielle Daten zu Index Coverage, Canonicalization, Mobile Usability, Core Web Vitals und Manual Actions. Nutze sie, um Fixes zu validieren und genau die Fehler zu finden, die Google sieht. (Bekannt ist das Tool auch als Google Webmaster‑Tools bzw. Webmaster‑Tools.)
- Practical actions:
- Verify your property and submit a sitemap.
- Use the Coverage report to find pages Google can’t index and why.
- Run URL Inspection to see what Googlebot experienced (indexing result, chosen canonical, last crawl).
- Check Core Web Vitals and Mobile Usability to prioritize performance and mobile fixes.
- Monitor Manual Actions and Security to catch penalties or hacks early.
- After fixing a problem, use Request Indexing to speed up validation.
How Screaming Frog and Search Console work together
- Use Screaming Frog to quickly discover structural and on‑page problems across many URLs.
- Use Search Console to confirm whether Google actually observed the same problems and to see Google’s chosen canonical or index status.
- Example workflow: Screaming Frog finds a duplicate title → you fix it → validate in Search Console and watch Coverage/URL Inspection to confirm Google accepts the change.
Bringing performance, links and structured data into the loop
- Lighthouse / PageSpeed Insights sind deine Werkzeuge für Seiten‑Geschwindigkeit und Core Web Vitals. Sie sind die Leistungszeugnisse, die du nach einem Screaming Frog‑Check laufen lässt. Verwende Lighthouse für konkrete Optimierungsvorschläge und PageSpeed Insights für Labor‑ und Feldmetriken.
- Schema.org structured data: Implementiere Schema.org‑Markup, damit Google Inhalte besser versteht. Validieren mit Rich Results Tests und die Enhancements/Rich Results‑Reports in der Search Console überwachen.
- Ahrefs ergänzt das Bild um Backlink‑ und Keyword‑Daten, die du in der Search Console nicht bekommst. Mit Ahrefs priorisierst du Seiten, die wegen ihres Traffics oder wichtiger Backlinks eine höhere Relevanz für dein technisches SEO haben.
A few practical tips from how pros operate (and a nod to John Mueller)
- Check canonicalization in Search Console; sometimes Googlebot chooses a different canonical than you expect. John Mueller (Webmaster Trends Analyst bei Google) empfiehlt oft das URL Inspection‑Tool, um zu verstehen, warum Google eine bestimmte Canonical‑Entscheidung trifft — der schnellste Weg, Googles Sicht zu sehen.
- Priorisiere Fixes, die Indexierbarkeit und Nutzererlebnis verbessern: defekte Seiten, lange Redirect‑Ketten, Mobilprobleme und schlechte Core Web Vitals.
- Automatisiere Routine‑Checks: plane regelmäßige Screaming Frog‑Crawls, exportiere und gleiche die Daten mit Search Console‑Reports ab und verfolge Leistungsänderungen in Lighthouse über die Zeit.
Quick checklist to get started today
- Install Screaming Frog and run a crawl (watch for 404s, redirects, duplicate titles).
- Verify your site in Google Search Console; submit a sitemap.
- Use URL Inspection on problem pages to see what Googlebot reports.
- Run Lighthouse / PageSpeed Insights on slow pages and remediate top issues.
- Validate structured data against Schema.org and monitor the Rich Results reports.
- Use Ahrefs to add backlink and keyword context for prioritization.
Du brauchst nicht alle Tools gleichzeitig — starte mit Screaming Frog (oder Screaming Frog SEO Spider) und Google Search Console, behebe die größten Blocker und erweitere dann um Lighthouse/PageSpeed und Ahrefs, wenn du skalierst. Ein guter erster Schritt ist ein schneller SEO‑Check oder komplettes SEO‑Audit: kleine, messbare Fixes addieren sich schnell. Du packst das.
Technisches SEO: Praktische Schritte zur technischen Suchmaschinenoptimierung – Mobile- und Performance-Optimierung (inkl. SEO-Audit mit Screaming Frog)
Technische Suchmaschinenoptimierung (technisches SEO) sorgt dafür, dass Ihre Seite auffindbar, schnell und zuverlässig ist — nicht nur für Menschen, sondern auch für Googlebot. Stellen Sie sich das wie das Feintuning eines Motors vor: kleine Anpassungen (Indexierung, Redirects, Code-Gewicht) bringen spürbar mehr Geschwindigkeit und Stabilität. Warum ist das wichtig? Schnellere Seiten und saubere Indexierung bedeuten mehr sichtbare Seiten in der Suche und weniger verlorene Besucher.
Schnelle Priorität: Was zuerst zu beheben ist
- Indexierung freigeben bevor alles andere angegangen wird. Wenn Google eine Seite nicht indexieren kann, ist alles andere zweitrangig.
- Redirect-Ketten auflösen, damit Besuche und Linkkraft nicht verloren gehen.
- Responsive Design umsetzen, damit die Seite auf Smartphones sauber funktioniert.
- Bilder/CSS/JS für Geschwindigkeit optimieren, um die echte Nutzererfahrung zu verbessern.
Aber wo anfangen? Nutzen Sie eine kurze Reihenfolge: Indexierbarkeit → Redirects → Mobile → Performance → strukturierte Daten — das ist Ihr praktischer SEO-Check für ein fokussiertes SEO-Audit.
Schritt-für-Schritt Arbeitsablauf
- Priorität: Indexierbarkeit prüfen (das Wichtigste)
- Führen Sie einen Crawl mit Screaming Frog durch, idealerweise mit dem Screaming Frog SEO Spider (bei Bedarf zuerst den Screaming Frog Download). Der Crawl zeigt Seiten mit noindex, Blockaden durch robots.txt oder 4xx/5xx-Fehlern.
- Öffnen Sie die Google Search Console — früher bekannt als Google Webmaster-Tools oder allgemein Webmaster-Tools — und prüfen Sie den Coverage-Bericht. Das ist Googles offizielle Sicht darauf, was indexiert ist und warum andere Seiten ausgeschlossen werden.
- Nutzen Sie das URL-Prüftool in der Search Console, um die gerenderte Seite zu sehen und nach Korrekturen eine erneute Indexierung anzufordern — John Mueller empfiehlt oft, erst Blocker zu entfernen und dann Google eine Neuverarbeitung zu schicken.
Was bringt’s? Sie finden so Seiten, die ranken könnten, aber aktuell unsichtbar sind.
- Redirect-Ketten und Canonical-Probleme beheben
- Finden Sie Redirect-Ketten und -Loops mit Screaming Frog / Screaming Frog SEO Spider. Ersetzen Sie Ketten durch einzelne 301-Weiterleitungen zur Ziel-URL.
- Prüfen Sie Canonical-Tags und sorgen Sie dafür, dass sie auf die jeweils beabsichtigte Seite zeigen. Vermeiden Sie widersprüchliche Signale zwischen Canonicals, Sitemaps und Redirects.
Nutzen: Sie behalten Link Equity und machen das Crawlen für Googlebot effizienter.
- Mobile-Freundlichkeit sicherstellen
- Setzen Sie echtes responsive Design um — nicht nur eine verkleinerte Desktop-Ansicht. Testen Sie Seiten auf unterschiedlichen Bildschirmgrößen und Ausrichtungen.
- Verwenden Sie das Mobile-Usability-Report in der Search Console und den Mobile-Friendly Test. Mobile Nutzer machen oft die Hälfte oder mehr des Traffics — mobile Probleme kosten Klicks.
Warum wichtig: Google verwendet mittlerweile primär die mobile Version zur Indexierung und Bewertung.
- Performance messen und verbessern (Core Web Vitals)
- Messen Sie mit Lighthouse / PageSpeed Insights die Core Web Vitals: Largest Contentful Paint (LCP), First Input Delay (FID) und Cumulative Layout Shift (CLS).
- Zielwerte: LCP ≤ 2.5s, FID ≤ 100ms, CLS ≤ 0.1.
- Praktische Maßnahmen:
- Bilder komprimieren und in modernen Formaten bereitstellen (WebP/AVIF), offscreen-Bilder lazy-loaden.
- Kritisches CSS inline, nicht-kritisches CSS deferen und ungenutztes CSS entfernen.
- Nicht essentielle JavaScript-Dateien defer/async laden; große Bundles splitten.
- Serverseitig: schnelles Hosting, CDN, HTTP/2, preconnect/preload verwenden.
Was bringt’s? Bessere UX, geringere Absprungraten und ein stärkeres Ranking-Signal.
- Strukturierte Daten und Kontext
- Ergänzen Sie relevante Schema.org-Auszeichnungen (Artikel, Produkte, FAQs) dort, wo sie Sinn machen. Betrachten Sie strukturierte Daten als Wegweiser, nicht als Hack.
- Validieren Sie die Markups mit dem Rich Results Test. Richtige Schema-Auszeichnung führt zu reichhaltigeren Suchergebnissen und oft höheren Klickraten.
- Backlinks und Seiten-Gesundheit
- Nutzen Sie Ahrefs, um toxische Backlinks, verwaiste Seiten oder fehlende interne Verlinkungen zu finden. Ein sauberes Link-Graph hilft bei Entdeckung und Ranking.
- Beheben Sie gebrochene interne Links und bauen Sie eine logische interne Verlinkung auf, damit wichtige Seiten sowohl Nutzern als auch Googlebot auffallen.
Monitoring und Verifikation
- Prüfen Sie betroffene Seiten nach Änderungen erneut in der Google Search Console. Beobachten Sie Coverage- und Core Web Vitals-Reports.
- Führen Sie Lighthouse / PageSpeed Insights erneut aus, um Verbesserungen bei LCP, FID und CLS zu bestätigen.
- Nutzen Sie Screaming Frog (ggf. den Screaming Frog SEO Spider nach dem Screaming Frog Download) für regelmäßige Crawls, damit keine Regressionen auftreten.
Ein paar praxisnahe Tipps (was John Mueller oft betont)
- Entfernen Sie Indexierungs-Blocker zuerst — die Search Console ist Ihre „Was Google sieht“-Quelle der Wahrheit.
- Indexierungsanfragen nur nach substantiellen Fixes senden; sinnlose Re-Requests verschwenden Zeit.
- Halten Sie die Signalkette konsistent: Sitemaps, Canonicals, Redirects und On-Page-Tags sollten übereinstimmen.
Abschließende Checkliste, die Sie heute nutzen können
- [ ] Beheben Sie alle noindex/robots-Probleme für Seiten, die indexiert werden sollen (Indexierbarkeit, technisches SEO).
- [ ] Entfernen Sie Redirect-Ketten und stellen Sie Einzelschritt-Weiterleitungen sicher.
- [ ] Überprüfen Sie Mobile-Layouts auf verschiedenen Geräten; beheben Sie Mobile-Usability-Probleme (responsive design).
- [ ] Führen Sie Lighthouse/PageSpeed Insights aus und erreichen Sie Core Web Vitals-Werte (LCP, FID, CLS).
- [ ] Bilder komprimieren und CSS/JS für Geschwindigkeit optimieren.
- [ ] Schema.org-Markup ergänzen und validieren.
- [ ] Monitoring mit Google Search Console, Screaming Frog und Ahrefs einrichten (für regelmäßiges SEO-Audit / SEO-Check).
Wenn Ihre Seite sich mit „nan“ beschäftigt, gelten dieselben Schritte: Stellen Sie sicher, dass die für Sie wichtigen Seiten crawlbar sind, auf Mobilgeräten korrekt rendern und schnell laden. Beginnen Sie mit den blockierenden Problemen — damit erzielen Sie die größten Gewinne mit dem geringsten Aufwand.
Technisches SEO (technische Suchmaschinenoptimierung): Schritt-für-Schritt SEO-Audit (SEO-Check) mit Screaming Frog SEO Spider und Google Search Console (früher Google Webmaster-Tools) — 404‑Fehler, Weiterleitungen und andere Probleme finden (inkl. Screaming Frog Download)
Warum ein technisches SEO-Audit durchführen? Weil Sie möchten, dass Google die richtigen Seiten schnell findet und indexiert. Ein gutes Audit deckt kaputte Links, versteckte Weiterleitungen, doppelte Meta-Tags und Indexierungslücken auf, sodass Sie gezielt beheben können, was die Performance wirklich schadet. Aber wo fängt man an?
Overview — the quick plan
- Step 1: Crawl the site with Screaming Frog to get a mirror of your URLs and problems.
- Step 2: Cross-check Google’s view in Google Search Console (Coverage, Sitemaps, URL Inspection).
- Step 3: Fix high-impact items (404s, 5xx, redirect chains, duplicate meta).
- Step 4: Re-submit and verify fixes with Search Console and re-crawl.
You’ll also use Googlebot signals, Schema.org checks, Lighthouse / PageSpeed Insights for performance, and Ahrefs for backlink context. And keep John Mueller’s practical advice in mind: use Search Console as Google’s view and focus on real fixes, not guesswork.
Step 1 — Start with a crawl in Screaming Frog (do this first)
Warum zuerst? Weil Screaming Frog (oder das Screaming Frog SEO Spider) Ihnen schnell eine lokale Momentaufnahme aller URLs und Antworttypen liefert. Betrachten Sie den Crawl als vollständige Inventur — so wissen Sie, was es zu prüfen gilt. Falls Sie das Tool noch nicht haben: der Screaming Frog Download ist der übliche erste Schritt.
Wie Sie es ausführen
- Konfigurieren Sie Screaming Frog so, dass es mit dem Googlebot User-Agent crawlt und JavaScript-Rendering aktiviert ist, wenn Ihre Seiten client-seitig gerendert werden.
- Crawlen Sie die gesamte Domain (Subdomains nach Bedarf ein- oder ausschließen).
Was exportieren und prüfen
- 404s (Not Found)
- 5xx errors (Serverfehler)
- Redirect chains und Loops (301/302-Sequenzen)
- Duplicate meta tags (Title oder Meta-Description)
- Sitemap-Links, die auf Seiten gefunden werden, und Probleme mit Sitemap-URLs
Warum das wichtig ist
- 404s und 5xx entfernen Seiten aus dem Nutzerpfad und können Link Equity verschwenden.
- Redirect-Ketten verlangsamen Crawls und führen zu Indexierungsverwirrung.
- Doppelte Meta-Tags verwässern Botschaft und CTR.
- Defekte oder falsch referenzierte Sitemap-Links bedeuten, dass Google Seiten übersehen kann.
Step 2 — Cross-check in Google Search Console: Coverage, Sitemaps, URL Inspection
Jetzt vergleichen Sie Ihr lokales Spiegelbild mit Googles Sicht. Das ist der essenzielle zweite Schritt.
Verwenden Sie diese Tools in Search Console (auch bekannt als Google Webmaster-Tools / Webmaster-Tools)
- Coverage report: Zeigt, welche Seiten indexiert sind, welche ausgeschlossen sind und die jeweiligen Ausschlussgründe (Soft 404, durch robots.txt blockiert, Crawl-Anomalie usw.).
- Sitemaps: Prüfen Sie, ob die eingereichte Sitemap mit dem übereinstimmt, was Screaming Frog gefunden hat. Achten Sie auf Abweichungen bei URL-Versionen (www vs non-www, HTTP vs HTTPS).
- URL Inspection: Für einzelne URLs sehen Sie das genaue Crawl-Datum, den letzten Crawl durch Googlebot, den Indexierungsstatus, das gerenderte HTML und erkannte strukturierte Daten (Schema.org). Über die URL-Inspection können Sie nach einer Behebung auch eine erneute Indexierung anstoßen.
Worauf Sie achten sollten
- Findet Screaming Frog eine URL, die im Coverage-Report als Excluded angezeigt wird? Warum?
- Werden weiterleitende Seiten noch in der Sitemap gelistet? Weiterleitende URLs gehören nicht in Sitemaps.
- Entspricht die gerenderte Ansicht Googles Ausgabe Ihren Erwartungen (Probleme beim JavaScript-Rendering)?
Step 3 — Prioritize fixes (practical triage)
Beheben Sie zuerst das, was die Sichtbarkeit wirklich beeinträchtigt.
Priority checklist
- Fix 5xx errors auf Seiten mit Traffic oder eingehenden Links. Serverstabilität hat Vorrang vor Mikro‑Optimierungen.
- Beheben Sie 404s, die eingehende Links haben oder kürzlich indexiert waren (Ahrefs hilft bei der Analyse von Referrer-Links).
- Reduzieren Sie Redirect chains auf eine einzelne, permanente (301) Weiterleitung.
- Korrigieren Sie doppelte meta titles/descriptions auf Seiten mit Suchsichtbarkeit.
- Aktualisieren Sie Sitemap-Einträge, sodass nur kanonische, finale URLs gelistet sind.
- Beheben Sie robots.txt oder meta-robots-Direktiven, die unbeabsichtigt blockieren.
Warum diese Reihenfolge? Serverfehler und kaputte Links stoppen sowohl Nutzer als auch Googlebot; andere Probleme betreffen Indexierung und Klarheit der Ranking-Signale.
Step 4 — Schema.org and structured data checks
Strukturierte Daten helfen Suchmaschinen, Inhalte besser zu verstehen. In Search Console ist das oft eine Fehlerquelle.
Was zu tun ist
- Prüfen Sie Seiten über die Enhancements-Reports in Search Console und den Rich Results Test, um Schema.org-Erkennung und Fehler zu sehen.
- Korrigieren Sie JSON-LD- oder Microdata-Fehler und validieren Sie erneut.
Was Sie davon haben: Eine korrekte Schema.org-Implementierung kann die Berechtigung für Rich Results wiederherstellen und die Klickrate verbessern.
Step 5 — Performance und UX: Lighthouse / PageSpeed Insights
Technische Suchmaschinenoptimierung (technisches SEO) betrifft nicht nur Indexierung — Geschwindigkeit zählt für Crawl-Budget und Nutzererlebnis.
Action steps
- Führen Sie Lighthouse / PageSpeed Insights für repräsentative Seitentypen aus.
- Priorisieren Sie Änderungen mit hohem Nutzen: nicht verwendetes JavaScript/CSS reduzieren, Bilder optimieren und Server-Antwortzeit verbessern.
Nutzen: Schnellere Seiten führen zu effizienterem Crawling durch Googlebot und besserer Nutzerbindung.
Step 6 — Backlink and context checks with Ahrefs
404s und Weiterleitungen können eingehende Linkstärke zerstören.
Nutzen Sie Ahrefs, um
- Backlinks zu finden, die auf kaputte Seiten zeigen.
- Weiterleitungen oder Inhaltsupdates für stark verlinkte Seiten zu priorisieren.
Warum das wichtig ist: Wiederherstellung von Link Equity beschleunigt die Erholung und Ranking-Verbesserung.
Step 7 — Re-crawl, re-submit, and confirm
Gehen Sie nicht davon aus, dass eine Änderung automatisch geprüft wurde.
Wie Sie verifizieren
- Re-crawl mit Screaming Frog und bestätigen Sie, dass die Fehler verschwunden sind.
- In Google Search Console die URL Inspection nutzen, die Live-URL testen und bei wichtigen Seiten request indexing verwenden (sparsam einsetzen).
- Beobachten Sie den Coverage-Report auf Statusänderungen; manche Fixes brauchen Tage oder Wochen, bis sie vollständig greifen.
Ein Hinweis im Sinne von John Mueller: Verwenden Sie Re-Indexierungsanfragen gezielt für wichtige URLs und vertrauen Sie darauf, dass automatische Systeme die meisten Änderungen selbst erfassen. Konzentrieren Sie sich auf sinnvolle Verbesserungen.
Practical tips and traps to avoid
- Listen Sie keine weiterleitenden URLs in Ihrer Sitemap.
- Vermeiden Sie lange Redirect-Ketten; sie verlangsamen Nutzer und Googlebot.
- Nutzen Sie die URL-Inspection nicht für die Massen-Indexierung von tausenden URLs — priorisieren Sie. John Mueller mahnt dazu, manuelle Aktionen auf wichtige Seiten zu beschränken.
- Führen Sie ein einfaches Protokoll: Problem, Fix, Datum, Verifikationsnachweis. Das spart Zeit, falls Probleme wieder auftreten.
What’s in it for you?
- Höhere Crawl-Rate für Ihre wichtigen Seiten.
- Klare Signale an Google, welche Seiten Sie indexiert haben möchten.
- Besseres Nutzererlebnis und erhaltene Link Equity.
- Weniger Überraschungen in Google Search Console/Google Webmaster-Tools und planbarere Erholungszeiten nach Fixes.
Final checklist — run this after your audit
- Re-crawl with Screaming Frog and export results.
- Re-check Coverage and Sitemaps in Google Search Console.
- Use URL Inspection on key pages and request re-indexing where needed.
- Validate structured data (Schema.org) and performance (Lighthouse / PageSpeed Insights).
- Use Ahrefs to reclaim link equity for fixed pages.
Ready to run the audit? Start with one Screaming Frog crawl, then move quickly into Search Console. Small, well-targeted fixes will get you visible results. Need a hand prioritizing which 404s or redirects to fix first? Ask and I’ll point you to the highest-impact wins.
P.S. If you want a quick SEO‑Check or full SEO‑Audit focused on technische Suchmaschinenoptimierung, I can outline the exact Screaming Frog SEO Spider settings to use and the best workflow — including when to download the tool (Screaming Frog Download) and how to combine it with Google Webmaster-Tools for fastest wins.
Indexierung, Crawl-Budget & Robots.txt — Mehr Seiten von Google indexieren lassen und intelligenter crawlen mit technischer Suchmaschinenoptimierung (z. B. Screaming Frog SEO Spider & Google Search Console)
Why this matters for you
Indexierung und Crawling sind die Tore zum organischen Traffic. Erreicht Googlebot eine Seite nicht oder interpretiert sie falsch, kann sie nicht ranken. Optimierung ist hier weniger Zauberei als praktische Aufräumarbeit und das Setzen klarer Signale. Was bringt das Ihnen? Mehr gewünschte Seiten im Index, weniger verschwendete Crawl-Zyklen und klarere Hinweise an Google, welche Seiten wichtig sind — ein Kernstück des technischen SEO bzw. der technischen Suchmaschinenoptimierung.
How Robots.txt actually works (and where it trips people up)
- Robots.txt controls crawling access — es sagt Googlebot, welche Pfade es abrufen darf und welche nicht.
- Wichtiger Hinweis: das Blockieren einer URL in robots.txt verhindert nicht zwangsläufig ihre Indexierung. Google kann eine blockierte URL weiterhin anhand von Links oder anderen Signalen indexieren.
- Wenn eine Seite nicht indexiert werden soll, nutzen Sie ein noindex-Meta-Tag oder entfernen Sie die Seite komplett. Sie können auch eine Entfernung über Google Search Console beantragen. Robots.txt allein hält eine URL nicht zwingend aus dem Index.
- Das ist ein praktischer Punkt, den John Mueller betont hat: dem Crawler zu sagen „nicht abrufen“ ist etwas anderes als der Suchmaschine zu sagen „nicht anzeigen“.
When crawl budget actually matters
- Crawl budget ist vor allem relevant für sehr große Seiten (hunderttausende bis Millionen URLs). Für die meisten Seiten ist es nicht der limitierende Faktor.
- Dennoch führen verschwendete Crawl-Zyklen dazu, dass Googlebot Zeit auf Seiten verbringt, die Ihnen egal sind. Das Beheben solcher Verschwendungen gibt den wichtigen Seiten Priorität.
Quick wins to reduce wasted crawl and help Google crawl smarter
- Fix soft 404s — Seiten, die 200 zurückgeben, inhaltlich aber „nicht gefunden“ sind. Sie verschwenden Crawl-Budget und verwirren die Indexierung.
- Eliminieren Sie Redirect chains und -schleifen; leiten Sie direkt auf die finale URL. Kürzere Ketten sparen Googlebot Zeit.
- Entfernen oder kanonisieren Sie Duplicate Content, damit Google eine eindeutige Version sieht. Verwenden Sie rel=canonical, wo es passt.
- Reichen Sie eine genaue XML‑Sitemap in der Google Search Console ein. Es ist keine Garantie, aber Googles bester Leitfaden für die Seiten, die Sie gecrawlt und indexiert haben möchten.
Tools and how to use them practically
- Screaming Frog — führen Sie einen Site‑Crawl mit dem Screaming Frog SEO Spider durch (für den Screaming Frog Download nutzen viele die offizielle Seite). Finden Sie damit soft 404s, Redirect‑Ketten, fehlende Meta‑Tags und doppelte Titles. Betrachten Sie den Crawl als Ihre Arbeitskopie dessen, was Suchmaschinen vorfinden.
- Google Search Console — Sitemaps einreichen, URLs prüfen und Googles Indexierungsentscheidungen sowie Crawl‑Statistiken einsehen. (Ehemals bekannt als Google Webmaster‑Tools / Webmaster‑Tools.) Nutzen Sie sie als offiziellen Kanal, Google mitzuteilen, was indexiert werden soll.
- Ahrefs — Backlink‑Profile und externe Links prüfen; solche Links können zur Indexierung von Seiten führen, die Sie verborgen glaubten; außerdem helfen Sie, doppelten Content über Domains hinweg zu entdecken.
- Lighthouse / PageSpeed Insights — langsame Seiten können die Crawleffizienz reduzieren, weil Googlebot zeitlich begrenzt ist; Performance‑Verbesserungen helfen sowohl beim Crawling als auch bei der Nutzererfahrung.
- Schema.org — strukturierte Daten beeinflussen das Crawl‑Budget nicht direkt, aber klare Markups helfen Google, wichtige Seiten schneller zu verstehen und verbessern oft die Sichtbarkeit in Suchfeatures.
- Googlebot — sein Verhalten verstehen: es ruft Seiten ab, respektiert robots.txt für das Crawling und folgt Redirects. Überprüfen Sie Server‑Logs, um echte Googlebot‑Aktivität zu sehen.
A practical audit checklist you can run this week
- Crawlen Sie Ihre Seite mit Screaming Frog und exportieren Sie Listen von soft 404s, 4xx/5xx‑Fehlern und Redirect‑Ketten.
- Vergleichen Sie diesen Crawl mit den URLs in Ihrer XML‑Sitemap. Entfernen Sie nicht‑essenzielle URLs aus der Sitemap.
- Nutzen Sie die URL‑Inspektion in der Google Search Console für Schlüssel‑Seiten; bestätigen Sie, dass sie crawlbar und wie gewünscht indexiert sind.
- Scannen Sie nach doppelten Titles und Inhalten; bestimmen Sie kanonische URLs oder setzen Sie bei Bedarf noindex.
- Prüfen Sie Server‑Logs auf tatsächliche Googlebot‑Aktivität — welche Seiten Zeit bekommen und welche Fehler zurückliefern.
- Führen Sie Lighthouse / PageSpeed Insights auf repräsentativen Seitentemplates aus und beheben Sie offensichtliche Performance‑Probleme.
- Überprüfen Sie Backlinks in Ahrefs für Seiten, die Sie per robots.txt blockiert haben — externe Links können trotzdem zur Indexierung führen.
If you want pages fully removed from Google
- Setzen Sie ein noindex‑Meta‑Tag auf der Seite und erlauben Sie Googlebot das Crawlen (blockieren Sie die Seite nicht in robots.txt). Lassen Sie Google danach neu crawlen, damit die Seite entfernt wird.
- Oder löschen Sie die Seite und geben Sie ein korrektes 404/410 zurück; verlangen Sie bei Bedarf eine schnellere Entfernung über Google Search Console.
- Denken Sie daran: robots.txt allein verhindert das Crawlen, kann aber die URL mit minimalen Informationen in den Suchergebnissen sichtbar lassen.
Final, practical note
Crawl‑ und Index‑Hygiene ist ein unspektakulärer, aber wirkungsvoller Teil der technischen Suchmaschinenoptimierung. Beheben Sie die lauten, verschwenderischen Probleme — soft 404s, Redirects, Duplikate — reichen Sie eine saubere Sitemap in der Google Search Console ein und nutzen Sie noindex, wenn eine Seite wirklich aus dem Index soll. Arbeiten Sie mit den Tools (Screaming Frog / Screaming Frog SEO Spider, Ahrefs, Lighthouse/PageSpeed Insights, Schema.org‑Validierung) als Wegweiser. Kleine, konsequente Korrekturen hier lassen Googlebot für Sie intelligenter arbeiten — genau die Hebelwirkung, die Sie im SEO‑Audit oder SEO‑Check suchen.
If your Google rankings don’t improve within 6 months, our tech team will personally step in – at no extra cost.
All we ask: follow the LOVE-guided recommendations and apply the core optimizations.
That’s our LOVE commitment.
Ready to try SEO with LOVE?
Start for free — and experience what it’s like to have a caring system by your side.
Conclusion
Du hast viel behandelt — jetzt fasse es zusammen. Die einfache Regel: Priorisieren, Automatisieren, Messen. Wenn du diese drei Schritte dauerhaft durchziehst, verwandelst du einmaliges Feuerlöschen in stetige, sichtbare Verbesserungen.
Wie oft prüfen
- Führe leichte Checks monatlich durch, um Regressionen früh zu entdecken. Nutze schnelle Tests und automatische Alerts, damit Probleme nicht lange bestehen bleiben.
- Mache ein vollständiges technisches Audit vierteljährlich oder immer dann, wenn du größere Änderungen am Aufbau vorgenommen hast (CMS-Upgrade, neue Templates, Massen-Redirects). Dann ist eine gründlichere Prüfung von Crawls, Redirects, strukturierten Daten und Performance nötig.
Warum? Kleine monatliche Checks verhindern, dass sich Kleinigkeiten zu siteweiten Problemen entwickeln; vierteljährliche Audits setzen die Strategie neu und fangen langsamere Trends ab.
Wie du Fixes priorisierst (nutze Impact × Effort)
- Berechne für jedes Problem Impact × Effort. Lösungen mit hohem Impact und niedrigem Aufwand sind deine Quick Wins.
- Fang bei Seiten an, die Traffic oder Conversions bringen. Wenn eine wichtige Landingpage Indexierungs- oder Performance-Probleme hat, behebe sie zuerst — dort zählen die Erfolge am meisten.
- Als Nächstes: technische Probleme, die viele Seiten betreffen (Redirect-Ketten, weit verbreitete noindex-Fehler, Crawl-Budget-Lecks).
- Zum Schluss kosmetische Änderungen mit geringem Impact oder hohem Aufwand.
So bleiben deine Ressourcen dort, wo sie am schnellsten etwas bewegen — Traffic, Conversions und Indexierung.
Automatisieren, um Regressionen zu entdecken
- Plane regelmäßige Crawls mit Tools wie Screaming Frog (oder dem Screaming Frog SEO Spider) ein, um neue 4xx/5xx-Antworten, Duplicate Content und Redirect-Ketten zu finden. (Wenn du neu startest: achte auf einen sauberen Screaming Frog Download.)
- Schalte Alerts in Google Search Console (ehemals Google Webmaster-Tools / Webmaster-Tools) für Fehler-Spikes, Coverage-Drops oder Sicherheitswarnungen ein.
- Nutze geplante Lighthouse- bzw. PageSpeed Insights-Runs zur automatisierten Überwachung der Core Web Vitals.
Automation liefert dir ein Frühwarnsystem — so verbringst du Zeit mit Beheben statt mit Suchen.
Praktische Werkzeugübersicht (Wofür welches Tool)
- Google Search Console — Indexierungsberichte, Coverage-Fehler, manuelle Maßnahmen und die beste Quelle für Googles Signale und Alerts.
- Screaming Frog — tiefes URL-level Crawling, um strukturelle Probleme auf der Site großflächig zu finden. Der Screaming Frog SEO Spider ist hier das Kern-Tool; für den Einstieg schaue nach dem Screaming Frog Download.
- Googlebot — denk daran: das ist der Crawler, auf den du optimierst; teste, wie Googlebot Seiten rendert (Fetch-as-Googlebot oder Live-Tests), wenn Rendering-/Indexierungsfragen auftauchen.
- Schema.org — strukturierte Daten implementieren und validieren, damit Suchmaschinen Entitäten und Rich-Snippet-Fähigkeit besser verstehen.
- Lighthouse / PageSpeed Insights — Core Web Vitals messen und konkrete Frontend-Performance-Verbesserungen identifizieren.
- Ahrefs — Backlink- und Keyword-Insights, um Seiten mit Link-Equity oder Keyword-Potenzial zu priorisieren.
- Und behalte pragmatische Ratschläge von Leuten wie John Mueller im Hinterkopf: Konzentriere dich auf das, was echten Nutzern hilft, und beobachte die Search Console-Signale statt dich in jeder Kleinigkeit zu verlieren.
Woran Erfolg wirklich zu erkennen ist
- Höhere Indexierung: mehr wichtige Seiten in Googles Index und weniger Coverage-Überraschungen.
- Bessere Core Web Vitals: stabile LCP/CLS/FID-Werte (oder die INP-Updates) über zentrale Templates hinweg.
- Weniger Fehler: rückläufige Zahlen bei Search Console-Fehlern, Crawl-Anomalien und kaputten Links.
- Positive Rankings- und Traffic-Trends: messbare Zuwächse bei organischem Traffic, Conversions und Keyword-Positionen für prioritäre Seiten.
Das sind messbare Zeichen für Erfolg. Wenn sich diese Kennzahlen nach priorisierten Fixes stetig verbessern, ist das echter Fortschritt.
Kurze Checkliste zum Schließen des Kreislaufs
- Monatlich: automatisierter Crawl + Search Console-Check + PageSpeed-Run.
- Vierteljährlich (oder nach großen Änderungen): volles SEO-Audit mit Screaming Frog, strukturierte-Daten-Check (Schema.org), Backlink-Review (Ahrefs) und Performance-Deep-Dive (Lighthouse).
- Priorisiere nach Impact × Effort, behebe zuerst Traffic-/Conversion-Seiten, dann technische Massenprobleme.
- Automatisiere Alerts und geplante Scans, damit Regressionen früh auffallen.
- Messe Erfolg über Indexierung, Core Web Vitals, weniger Fehler und Traffic-/Ranking-Trends.
Perfektion jede Woche ist nicht nötig. Du brauchst wiederholbare Gewohnheiten. Priorisiere die großen Hebel, automatisiere die Wächter und messe, was zählt — und dann wiederhole den Ablauf. So werden Audits zu Wachstumstreibern und nicht nur zu Beschäftigungsmaßnahmen.
Author - Tags - Categories - Page Infos
fuxx
- Dezember 16, 2025
- google search console, google webmaster tools, Google Webmaster-Tools, screaming frog, Screaming Frog Download, Screaming Frog SEO Spider, SEO-Audit, technische Suchmaschinenoptimierung, Technisches SEO, Webmaster-Tools
- SEO Strategies

