Comprendere NaN in JavaScript: cause, soluzioni e consigli — guida pratica per sviluppatori e per chi fa SEO (audit SEO tecnico con Screaming Frog, Screaming Frog SEO, Google Search Console, Google Webmaster Tools e altri strumenti per webmaster)

Pensa al tuo sito come a una casa: ottimi arredi (contenuti) e un passaparola solido (link) contano — ma se le porte sono chiuse e l’indirizzo è sbagliato, nessuno la trova. Questo è esattamente ciò che controlla il SEO tecnico: se i motori di ricerca possono crawlare, indicizzare e realmente capire le tue pagine. Se non possono, contenuti e link non miglioreranno la visibilità.

What crawlability and indexability mean for you

  • Googlebot è il crawler automatico che tenta di visitare le tue pagine. Se trova pagine bloccate, link rotti o redirect confusi, non riesce a trasmettere il valore del sito nei risultati di ricerca.
  • Usa Google Search Console per vedere cosa Google può o non può indicizzare. È la tua linea diretta sulla vista che il motore di ricerca ha del sito.
  • Strumenti come Screaming Frog (spesso indicato anche come Screaming Frog SEO) ti permettono di simulare un crawl e scovare problemi prima che li trovi Google.

Why speed, mobile readiness and HTTPS matter
Puoi avere contenuti eccellenti, ma utenti e motori di ricerca valutano anche l’esperienza. Site speed, mobile readiness e connessioni sicure HTTPS influenzano direttamente ranking e coinvolgimento. Pagine lente perdono visitatori; pagine non ottimizzate per mobile vengono penalizzate con l’indicizzazione mobile-first; pagine non sicure riducono la fiducia.

  • Misura la velocità con Lighthouse / PageSpeed Insights — ti indicano dove si perdono secondi.
  • I problemi mobile si manifestano nel comportamento degli utenti e nei report mobile di Google Search Console.
  • HTTPS è imprescindibile: è sia un segnale di ranking che di affidabilità.

Help search engines actually understand your content
I dati strutturati contano. Implementare il markup Schema.org è come aggiungere post-it alle tue pagine che spiegano cosa rappresenta ogni contenuto — prodotto, recensione, evento, ricetta — così i motori di ricerca possono mostrare risultati più ricchi.

Quick, measurable wins you can expect
Risolvere problemi tecnici spesso porta a miglioramenti rapidi e misurabili. Sistemare un errore di crawl importante, eliminare un loop di contenuti duplicati o correggere un template lento può far salire impression e clic in pochi giorni o settimane.

  • Perché succede? Perché le correzioni tecniche rimuovono gli ostacoli tra i tuoi contenuti e i motori di ricerca.
  • Anche John Mueller di Google consiglia regolarmente di risolvere prima i problemi tecnici evidenti — è pratico e spesso efficace.

Where to start (practical first steps)

  • Esegui un controllo della copertura e della sitemap in Google Search Console (ex Google Webmaster Tools) — è uno degli strumenti per webmaster più utili.
  • Effettua un crawl del sito con Screaming Frog per trovare errori, redirect e tag duplicati — ottimo per un primo audit SEO tecnico.
  • Testa le prestazioni con Lighthouse / PageSpeed Insights e risolvi le principali criticità segnalate.
  • Audita backlink e visibilità organica con Ahrefs per dare priorità alle pagine che contano.
  • Aggiungi o valida il markup Schema.org per i tipi di contenuto che possono beneficiare di rich snippet.

Bottom line: il SEO tecnico è le fondamenta. Sistema le basi e sblocchi il valore di contenuti e link. Inizia con pochi controlli mirati questa settimana — vedrai probabilmente miglioramenti rapidi e misurabili che giustificano un lavoro più approfondito.

Ready to try SEO with LOVE?

Start for free — and experience what it’s like to have a caring system by your side.

Start for Free - NOW

Il SEO tecnico è l’impianto idraulico e l’impalcatura che permette ai motori di ricerca di trovare, comprendere e mostrare i tuoi contenuti. Non si tratta delle parole sulla pagina — si tratta di come queste parole vengono consegnate a Google e agli altri motori di ricerca. In parole semplici: se le fondamenta tecniche sono instabili, il tuo contenuto potrebbe non ottenere mai la visibilità che merita.

What’s included

  • Site structure: come le pagine sono organizzate e collegate.
  • Crawlability & indexing: come Googlebot scopre e memorizza le pagine.
  • Page speed: quanto velocemente le pagine si caricano per utenti e bot.
  • Mobile-first readiness: la versione mobile è trattata come primaria (Google è passato all’indicizzazione mobile-first per default intorno al 2020).
  • Structured data (Schema.org): indizi leggibili dalle macchine che aiutano i motori di ricerca a mostrare risultati arricchiti.
  • Security (HTTPS): un sito sicuro è atteso e può influenzare visibilità e fiducia.

Why this matters to you
Pensa al SEO tecnico come alla cartografia e ai semafori del percorso del tuo sito verso i risultati di ricerca. Se Googlebot non riesce ad accedere o interpretare le tue pagine, non conta quanto sia ottimo il contenuto. Risolvendo questi aspetti tecnici fai in modo che Google non solo trovi le tue pagine, ma le mostri nel modo migliore.

Core areas explained (and what to check first)

  • Site structure
    Why it matters: Una struttura chiara aiuta utenti e motori di ricerca a trovare rapidamente le pagine prioritarie.
    Quick check: Un utente riesce a raggiungere qualsiasi pagina importante in tre clic? URL e navigazione riflettono raggruppamenti tematici?
    Tools: Screaming Frog (anche come Screaming Frog SEO), Ahrefs per esplorare il sito e ottenere report sui link interni.

  • Crawlability & indexing
    Why it matters: Se Googlebot non può effettuare il crawl di una pagina o l’hai bloccata per errore, quella pagina non apparirà nelle ricerche.
    Quick check: Controlla lo stato di indicizzazione in Google Search Console (ex Google Webmaster Tools, uno degli strumenti per webmaster più usati). Cerca blocchi in robots.txt, tag noindex o problemi di canonical.
    Pro tip: John Mueller spesso consiglia di usare l’URL Inspection di Search Console per vedere come Googlebot visualizza una pagina.

  • Page speed
    Why it matters: La velocità incide su soddisfazione utente e posizionamento. Pagine lente riducono l’engagement e possono essere declassate.
    Quick check: Esegui Lighthouse / PageSpeed Insights per diagnostiche pratiche (ottimizzazione immagini, JS/CSS che bloccano il rendering, tempi di risposta del server).
    Tools: Lighthouse / PageSpeed Insights e i dati di campo in Search Console per metriche reali degli utenti.

  • Mobile-first readiness
    Why it matters: Dal ~2020 Google usa la versione mobile del tuo sito come fonte primaria per indicizzazione e ranking. Se la pagina mobile è priva di contenuti o structured data, sarà quella indicizzata.
    Quick check: Confronta contenuti e dati strutturati mobile vs desktop. Usa il Mobile Usability report di Search Console e gli audit mobile di Lighthouse.

  • Structured data (Schema.org)
    Why it matters: Il markup di Schema.org è il modo per etichettare contenuti — evento, prodotto, FAQ — così i motori di ricerca possono generare risultati ricchi.
    Quick check: Valida i dati strutturati con il test Rich Results di Search Console. Usa i vocabolari Schema.org che corrispondono al tuo tipo di contenuto.
    Tools: Test di markup in Search Console e estensioni browser per ispezionare il markup.

  • Security (HTTPS)
    Why it matters: HTTPS protegge gli utenti ed è un segnale di fiducia per i motori di ricerca. Contenuti misti o certificati scaduti possono ostacolare il crawling e l’esperienza utente.
    Quick check: Verifica che ogni pagina reindirizzi a HTTPS e risolvi gli errori di mixed content. Controlla certificati e impostazioni HSTS.

Practical toolset and workflow

  • Per un buon audit SEO tecnico, inizia con Google Search Console come centro di controllo per indicizzazione, copertura e report mobile. (Search Console è uno dei principali strumenti per webmaster, ex Google Webmaster Tools.)
  • Esegui crawl con Screaming Frog o Screaming Frog SEO per emulare il comportamento dei bot e scovare problemi nascosti.
  • Misura la velocità con Lighthouse / PageSpeed Insights e prioritizza le correzioni che migliorano maggiormente l’esperienza percepita dall’utente.
  • Integra Ahrefs per analisi della struttura dei link e scoperta di pagine orfane.
  • Ricorda: è Googlebot che esegue il lavoro — se Googlebot non riesce a recuperare una pagina, quella pagina non sarà indicizzata.

Simple starter checklist

  • Conferma l’indicizzazione mobile-first: confronta contenuti mobile vs desktop e colma le lacune.
  • Audita la copertura in Google Search Console e risolvi gli errori segnalati.
  • Esegui un crawl con Screaming Frog per trovare redirect, tag noindex e link rotti.
  • Migliora i Core Web Vitals seguendo le raccomandazioni di Lighthouse.
  • Aggiungi o valida il markup Schema.org per i tipi di contenuto che possono beneficiare dei rich results.
  • Imposta e applica HTTPS su tutto il sito e risolvi i problemi di mixed content.

Final note
Il SEO tecnico è metodico, non mistico. Chiediti: quale di queste aree sta attualmente bloccando le tue migliori pagine dal venire scoperte? Parti da lì, fai un audit SEO tecnico con gli strumenti giusti (Search Console, Screaming Frog, Lighthouse) e applica correzioni piccole e misurabili. Vedrai l’impatto sia nel comportamento di crawl che nella visibilità sui motori.

Perché questi strumenti, e cosa ci guadagni?
Pensa a questi tool come a una checklist pre-volo per il tuo sito: ti aiutano a trovare le viti allentate prima che Google le noti. Usandoli insieme puoi individuare più rapidamente pagine rotte, canonical sbagliati, scarsa esperienza mobile e pagine lente, così da correggere i problemi che incidono direttamente sull’indicizzazione, sul posizionamento e sulla fiducia degli utenti. In pratica è il punto di partenza per un buon audit SEO tecnico.

Screaming Frog — il tuo crawler locale

  • Che cos’è: Screaming Frog è un crawler che esegui in locale sulla tua macchina per mappare come le pagine sono collegate e come rispondono. (Spesso citato anche come Screaming Frog SEO negli ambienti SEO.)
  • Cosa trova: usalo per scovare 404s, redirect chains, duplicate titles e problemi di struttura del sito che tengono nascosti contenuti ai crawler.
  • Limite principale: la versione gratuita scansiona fino a 500 URL — ottima per siti piccoli o controlli spot; la licenza completa rimuove il limite.
  • Come usarlo rapidamente:
    1. Punta Screaming Frog sul tuo sito e avvia una crawl.
    2. Filtra per Client Error (4xx) per elencare le pagine rotte e pianificare redirect o correzioni.
    3. Controlla il report Redirect Chains — spezza le catene lunghe in redirect singoli.
    4. Usa i report Duplicate e Page Titles per ripulire metadata ripetuti o troppo deboli.
    5. Esporta i report e dai priorità alle correzioni in base al traffico o al valore di business.

Google Search Console (a.k.a. Google Webmaster Tools) — la verità ufficiale

  • Che cos’è: Google Search Console è il cruscotto ufficiale di Google che mostra i segnali che Google utilizza per il tuo sito. È uno dei principali strumenti per webmaster.
  • Perché è indispensabile: fornisce dati ufficiali su index coverage, canonicalization, mobile usability, Core Web Vitals e manual actions. Usalo per validare le correzioni e per trovare gli errori esatti che Google vede.
  • Azioni pratiche:
    • Verifica la tua property e invia una sitemap.
    • Usa il report Coverage per scoprire le pagine che Google non riesce a indicizzare e il motivo.
    • Esegui URL Inspection per vedere cosa ha rilevato Googlebot (risultato di indicizzazione, canonical scelto, ultima crawl).
    • Controlla Core Web Vitals e Mobile Usability per dare priorità a performance e fix mobile.
    • Monitora Manual Actions e Security per intercettare penalizzazioni o compromissioni.
    • Dopo aver risolto un problema, usa Request Indexing per velocizzare la validazione.

Come lavorano insieme Screaming Frog e Search Console

  • Usa Screaming Frog per scoprire rapidamente problemi strutturali e on-page su molte URL.
  • Usa Search Console per confermare se Google ha rilevato gli stessi problemi e per vedere il canonical o lo stato di indicizzazione scelto da Google.
  • Esempio di workflow: Screaming Frog individua un titolo duplicato → lo correggi → validi in Search Console e segui Coverage/URL Inspection per assicurarti che Google abbia recepito la modifica.

Portare performance, link e dati strutturati nel ciclo

  • Lighthouse / PageSpeed Insights sono il riferimento per velocità di pagina e Core Web Vitals. Considerali la pagella delle performance che esegui dopo un controllo strutturale con Screaming Frog. Usa Lighthouse per opportunità azionabili e PageSpeed Insights per metriche di laboratorio e campo.
  • Dati strutturati Schema.org: implementa markup Schema.org per aiutare Google a comprendere i contenuti. Valida con i test Rich Results e monitora i report Enhancements/Rich Results in Search Console.
  • Ahrefs integra il quadro fornendo visibilità su backlink e keyword che Search Console non mostra. Usa Ahrefs per dare priorità alle pagine da sistemare perché portano traffico o hanno backlink importanti.

Qualche consiglio pratico da chi lo fa per mestiere (e un cenno a John Mueller)

  • Controlla la canonicalizzazione in Search Console; a volte Googlebot sceglie un canonical diverso da quello che ti aspetti. John Mueller (Webmaster Trends Analyst di Google) suggerisce spesso di usare lo strumento URL Inspection per capire perché Google ha scelto un canonical: è il modo più rapido per vedere la prospettiva di Google.
  • Dai priorità alle correzioni che migliorano indicizzabilità ed esperienza utente: pagine rotte, catene di redirect lunghe, problemi mobile e Core Web Vitals scarsi. Questo è vero per ogni audit SEO tecnico.
  • Automatizza i controlli di routine: programma crawl con Screaming Frog, esporta e confronta con i report di Search Console, e monitora i cambiamenti di performance con Lighthouse nel tempo.

Checklist rapida per iniziare oggi

  • Installa Screaming Frog e lancia una crawl (attento a 404s, redirect, duplicate titles).
  • Verifica il tuo sito in Google Search Console; invia una sitemap.
  • Usa URL Inspection sulle pagine problematiche per vedere cosa segnala Googlebot.
  • Esegui Lighthouse / PageSpeed Insights sulle pagine lente e risolvi le principali criticità.
  • Valida i dati strutturati secondo Schema.org e monitora i report Rich Results.
  • Usa Ahrefs per aggiungere contesto su backlink e keyword nella prioritizzazione.

Non serve usare tutti gli strumenti insieme da subito — parti da Screaming Frog e Search Console, risolvi i blocchi più grandi, poi aggiungi Lighthouse e Ahrefs man mano che cresci. Piccole correzioni misurabili si sommano in fretta. Ce la fai.

Il SEO tecnico è il lavoro che rende il tuo sito trovabile, veloce e coerente — non solo per le persone ma anche per Googlebot. Pensalo come la messa a punto di un motore: piccoli aggiustamenti (indicizzazione, redirect, peso del codice) migliorano velocità e affidabilità. Perché ti riguarda? Pagine più veloci e un’indicizzazione pulita significano più pagine visibili nelle ricerche e meno visitatori persi.

Quick priority: what to fix first

  • Unblock indexing before anything else. If Google can’t index a page, nothing else matters.
  • Resolve redirect chains so visits and link equity aren’t wasted.
  • Implement responsive design so the site works well on phones.
  • Optimize images/CSS/JS for speed to improve real user experience.

Ma da dove cominciare? Usa una checklist breve e segui l’ordine: indexability → redirects → mobile → performance → structured data. Questo è esattamente il flusso che uso quando faccio un audit SEO tecnico o un controllo rapido con strumenti per webmaster.

Step-by-step practical workflow

  1. Triage indexability (the most important)
  • Run Screaming Frog to crawl your site like a local Googlebot. Look for pages marked noindex, blocked by robots.txt, or returning 4xx/5xx errors.
  • Open Google Search Console and check the Coverage report. It’s Google’s official view of what’s indexed and why some pages aren’t.
  • Use the URL Inspection tool (in Search Console) to see the rendered page and request reindexing after fixes — John Mueller often advises to prioritize fixes that remove blockers and then ask Google to reprocess the page.
    What’s in it for you? Fixing these uncovers pages that should rank but are hidden.
  1. Fix redirect chains and canonical problems
  • Find redirect chains and loops with Screaming Frog. Replace chains with single 301s to the final URL.
  • Audit canonical tags and ensure they point to the intended page. Avoid conflicting signals between canonicals, sitemaps, and redirects.
    Benefit: you keep link equity and make crawling cheaper for Googlebot.
  1. Make the site mobile-friendly
  • Implement a truly responsive design (not just scaled desktop views). Test pages on different screen sizes and orientations.
  • Use Search Console’s Mobile Usability report and the Mobile-Friendly Test. Real users on mobile are half or more of your traffic — mobile hiccups cost clicks.
    Why this matters: Google primarily uses the mobile version for indexing and ranking.
  1. Measure and improve performance (Core Web Vitals)
  • Run Lighthouse / PageSpeed Insights to measure Core Web Vitals: Largest Contentful Paint (LCP), First Input Delay (FID), and Cumulative Layout Shift (CLS).
  • Aim for recommended thresholds: LCP ≤ 2.5s, FID ≤ 100ms, CLS ≤ 0.1.
  • Practical fixes:
    • Compress and serve images in modern formats (WebP/AVIF), and lazy-load offscreen images.
    • Inline critical CSS, defer non-critical CSS, and remove unused CSS.
    • Defer or async non-essential JavaScript; split heavy bundles.
    • Use server-side improvements: fast hosting, CDN, HTTP/2, preconnect/preload.
      What’s in it for you? Better UX, lower bounce rates, and a stronger ranking signal.
  1. Structured data and context
  • Add relevant Schema.org markup where it helps (articles, products, FAQs). Treat structured data as a clear signpost, not a hack.
  • Use the Rich Results Test to validate markup. Schema helps search engines present richer results that increase click-through rates.
  1. Backlink and site health signals
  • Use Ahrefs to spot toxic backlinks, orphan pages, or missing internal links. A healthy link graph helps pages get discovered and ranked.
  • Fix broken internal links and add logical internal linking to surface important pages to both users and Googlebot.

Monitoring and verification

  • Re-check affected pages in Google Search Console after fixes. Watch the Coverage and Core Web Vitals reports.
  • Re-run Lighthouse / PageSpeed Insights to confirm improvements in LCP, FID, and CLS.
  • Use Screaming Frog for periodic crawls to ensure no regressions.

A few practical tips from the field (what John Mueller often emphasizes)

  • Fix the indexing blockers first — Search Console is your “what Google sees” source of truth.
  • Request indexing only after meaningful fixes; random re-requests waste time.
  • Keep the signal chain consistent: sitemaps, canonicals, redirects, and on-page tags should all agree.

Final checklist you can use today

  • [ ] Resolve all noindex/robots issues for pages you want indexed (indexability).
  • [ ] Remove redirect chains and ensure single-step redirects.
  • [ ] Verify mobile layouts across devices; fix mobile usability issues (responsive design).
  • [ ] Run Lighthouse/PageSpeed Insights and hit Core Web Vitals thresholds (LCP, FID, CLS).
  • [ ] Compress images and optimize CSS/JS for speed.
  • [ ] Add and validate Schema.org where relevant.
  • [ ] Monitor with Google Search Console, Screaming Frog, and Ahrefs.

Nota veloce: se usi strumenti come Screaming Frog SEO insieme a Google Search Console (ex Google Webmaster Tools) e ad altri strumenti per webmaster, il tuo audit SEO tecnico diventa più rapido e mirato. Affronta prima i blocchi che impediscono la scansione: sono le correzioni con il migliore rapporto sforzo/beneficio.

Perché fare un audit SEO tecnico? Perché vuoi che Google trovi e indicizzi le pagine giuste, rapidamente. Un buon audit SEO tecnico mette a luce link rotti, redirect nascosti, tag duplicati e punti ciechi nell’indicizzazione, così puoi correggere quello che davvero penalizza le performance. Ma da dove cominciare?

Overview — il piano rapido

  • Step 1: Scansiona il sito con Screaming Frog per ottenere una “fotografia” locale delle URL e dei problemi.
  • Step 2: Confronta con la vista di Google Search Console (Coverage, Sitemaps, URL Inspection).
  • Step 3: Risolvi gli elementi ad alto impatto (404, 5xx, catene di redirect, meta duplicati).
  • Step 4: Reinvia e verifica le correzioni con Search Console e ricrawl.
    Userai anche segnali di Googlebot, controlli Schema.org, Lighthouse / PageSpeed Insights per le prestazioni e Ahrefs per il contesto dei backlink. Ricorda il consiglio pratico di John Mueller: considera Search Console (ex Google Webmaster Tools) come la vista di Google e concentra gli sforzi su correzioni reali, non su ipotesi.

Step 1 — Inizia con una scansione in Screaming Frog (fai questo prima)
Perché come prima cosa? Perché Screaming Frog ti dà una snapshot veloce di ogni URL e tipo di risposta. È l’elenco completo che ti dice cosa controllare.

Come eseguirla

  • Configura Screaming Frog per usare l’user-agent Googlebot e abilita il rendering JavaScript se il sito si affida al client-side.
  • Scansiona l’intero dominio (includi o limita sottodomini se necessario).
    Cosa esportare ed esaminare
  • 404s (Not Found)
  • 5xx errors (errori di server)
  • Redirect chains e loop (sequenze 301/302)
  • Duplicate meta tags (title o meta description duplicati)
  • Sitemap links trovati nelle pagine e eventuali problemi con gli URL della sitemap
    Perché contano
  • I 404s e i 5xx escludono pagine dal percorso utente e possono disperdere link equity.
  • Le redirect chains rallentano il crawl e creano confusione nell’indice.
  • I duplicate meta tags diluiscono il messaggio e riducono il CTR.
  • Sitemap rotte o riferite in modo errato fanno sì che Google possa perdere pagine.

Step 2 — Cross-check in Google Search Console: Coverage, Sitemaps, URL Inspection
Ora confronta lo specchio locale con la realtà di Google. Questo è il passaggio essenziale numero due.

Usa questi strumenti in Search Console

  • Coverage report: vedi quali pagine sono indexed, quali sono excluded e le singole ragioni di esclusione (soft 404, bloccato da robots.txt, crawl anomaly, ecc.).
  • Sitemaps: verifica che la sitemap inviata corrisponda a quanto trovato da Screaming Frog. Controlla discrepanze nelle versioni degli URL (www vs non-www, HTTP vs HTTPS).
  • URL Inspection: per ogni URL in dubbio, guarda la data dell’ultimo crawl, l’ultimo crawl di Googlebot, lo stato di indicizzazione, l’HTML renderizzato e i dati strutturati rilevati (Schema.org). Puoi anche richiedere la re-indicizzazione dopo una correzione.
    Cosa controllare
  • Un URL trovato da Screaming Frog risulta Excluded in Coverage? Perché?
  • Le pagine che fanno redirect sono ancora elencate nella sitemap? Non includere URL che reindirizzano.
  • La vista renderizzata da Google corrisponde a quanto ti aspetti (problemi di rendering JavaScript)?

Step 3 — Prioritizza le correzioni (triage pratico)
Risolvi prima quello che danneggia la visibilità di ricerca.

Priority checklist

  1. Risolvi gli 5xx sulle pagine con traffico o link. La stabilità server precede le micro-ottimizzazioni.
  2. Correggi i 404s che hanno link in ingresso o sono stati indicizzati di recente (usa Ahrefs per trovare i riferimenti).
  3. Riduci le redirect chains a redirect singoli e permanenti (301).
  4. Sistemare duplicate meta titles/descriptions sulle pagine con visibilità organica.
  5. Aggiorna le voci nella sitemap per includere solo gli URL canonici e finali.
  6. Correggi robots.txt o direttive meta-robots che bloccano inavvertitamente.
    Perché questo ordine? Errori di server e link rotti bloccano utenti e Googlebot; gli altri problemi impattano chiarezza di indicizzazione e segnali di ranking.

Step 4 — Controlli Schema.org e dati strutturati
I dati strutturati aiutano i motori a interpretare i contenuti. Spesso sono fonte di errori in Search Console.

Cosa fare

  • Usa i report Enhancements di Search Console e il Rich Results Test per verificare rilevamento ed errori di Schema.org.
  • Correggi JSON-LD o microdata e revalida.
    Perché farlo? Implementazioni corrette di Schema.org possono ripristinare l’idoneità ai rich result e migliorare il click-through rate.

Step 5 — Performance e UX: Lighthouse / PageSpeed Insights
Il SEO tecnico non riguarda solo l’indicizzazione. La velocità influisce sul crawl budget e sull’esperienza utente.

Azioni

  • Esegui Lighthouse / PageSpeed Insights su template di pagina rappresentativi.
  • Prioritizza interventi ad alto impatto: riduci JavaScript/CSS inutilizzato, ottimizza immagini e migliora i tempi di risposta del server.
    Vantaggio: pagine più veloci migliorano l’efficienza del crawl di Googlebot e l’engagement degli utenti.

Step 6 — Verifiche backlink e contesto con Ahrefs
404 e redirect possono interrompere il valore dei link in ingresso.

Usa Ahrefs per

  • Trovare backlink che puntano a pagine rotte.
  • Dare priorità a redirect o ripristino di contenuti per le pagine con molti collegamenti.
    Perché conta: recuperare link equity accelera la ripresa e il posizionamento.

Step 7 — Ricrawl, reinvia e conferma
Non dare per scontato che una correzione sia stata applicata.

Come verificare

  • Ricrawl con Screaming Frog per confermare che gli errori siano spariti.
  • In Google Search Console, usa URL Inspection per testare l’URL live e poi request indexing per la pagina aggiornata (usalo con criterio e solo per pagine importanti).
  • Monitora il report Coverage per i cambi di stato; alcune correzioni richiedono giorni o settimane per essere pienamente registrate.
    Dal punto di vista di John Mueller: usa le richieste di re-indicizzazione per URL importanti e fidati che i sistemi automatici raccolgano la maggior parte dei cambiamenti. Concentrati su miglioramenti significativi.

Consigli pratici e trappole da evitare

  • Non inserire URL che reindirizzano nella sitemap.
  • Evita catene di redirect lunghe; rallentano utenti e Googlebot.
  • Non usare URL Inspection per indicizzare migliaia di URL in massa — prioritizza. John Mueller invita a concentrarsi sulle pagine più importanti per azioni manuali.
  • Tieni un registro semplice: problema, fix, data, prova di verifica. Ti farà risparmiare tempo se il problema ricompare.

Cosa ci guadagni

  • Maggiore frequenza di crawl per le pagine importanti.
  • Segnali chiari a Google su quali pagine vuoi indicizzare.
  • Migliore esperienza utente e conservazione della link equity.
  • Meno sorprese in Search Console e recuperi più prevedibili dopo le correzioni.

Final checklist — esegui questo dopo l’audit

  • Ricrawl con Screaming Frog ed esporta i risultati.
  • Ricontrolla Coverage e Sitemaps in Google Search Console.
  • Usa URL Inspection sulle pagine chiave e richiedi re-indicizzazione dove necessario.
  • Valida i dati strutturati (Schema.org) e le prestazioni (Lighthouse / PageSpeed Insights).
  • Usa Ahrefs per recuperare link equity delle pagine sistemate.

Pronto per partire con l’audit SEO tecnico? Parti da una scansione con Screaming Frog SEO, poi passa rapidamente a Search Console. Piccole correzioni mirate portano risultati visibili. Vuoi che ti aiuti a prioritizzare quali 404 o redirect risolvere prima? Dimmi il tuo obiettivo e ti indico le correzioni a maggior impatto.

Why this matters for you
L’indicizzazione e il crawling sono la porta d’ingresso al traffico organico. Se Googlebot non raggiunge una pagina o non la interpreta correttamente, quella pagina non può posizionarsi. Ottimizzare questi meccanismi non è magia ma pulizia pratica e segnali corretti: cosa ci guadagni? Più pagine che desideri effettivamente indicizzate, meno cicli di crawl sprecati e indicazioni più chiare a Google su cosa conta davvero — un elemento chiave di qualsiasi strategia di SEO tecnico e di un buon audit SEO tecnico.

How Robots.txt actually works (and where it trips people up)

  • Robots.txt controlla l’accesso al crawling — dice a Googlebot quali percorsi può o non può recuperare.
  • Avvertenza importante: bloccare un URL in robots.txt non garantisce che non venga indicizzato. Google può comunque indicizzarlo sulla base di link o altri segnali.
  • Se vuoi che una pagina non sia indicizzata, usa il meta tag noindex o elimina la pagina del tutto. Puoi anche richiederne la rimozione tramite Google Search Console (ex Google Webmaster Tools), ma robots.txt da solo non la toglie dall’indice.
  • Punto pratico citato spesso da John Mueller: dire ai crawler “non recuperare” non è la stessa cosa che dire ai motori “non mostrare”.

When crawl budget actually matters

  • Crawl budget è rilevante soprattutto per siti molto grandi (centinaia di migliaia fino a milioni di URL). Per la maggior parte dei siti non è il fattore limitante.
  • Detto questo, i cicli di crawl sprecati fanno sì che Googlebot perda tempo su pagine che non ti interessano. Risolvere questi sprechi mette in priorità le pagine che invece contano.

Quick wins to reduce wasted crawl and help Google crawl smarter

  • Fix soft 404s — pagine che restituiscono 200 ma sono di fatto “non trovate”. Sprecano crawl e confondono l’indicizzazione.
  • Elimina redirect chains e loop; fai puntare i redirect direttamente all’URL finale. Catene più corte fanno risparmiare tempo a Googlebot.
  • Rimuovi o canonicalizza il duplicate content in modo che Google veda una versione chiara. Usa rel=canonical quando serve.
  • Invia un XML sitemap accurato a Google Search Console. Non è una garanzia, ma è la guida migliore che puoi dare a Google sulle pagine da scansionare e indicizzare.

Tools and how to use them practically

  • Screaming Frog — esegui una scansione del sito per trovare soft 404s, redirect chain, meta tag mancanti e titoli duplicati. Pensalo come la copia di lavoro di ciò che i motori incontreranno. (Screaming Frog SEO è spesso citato nelle checklist di audit per SEO tecnico.)
  • Google Search Console — invia sitemap, ispeziona URL e vedi le decisioni di indicizzazione e le statistiche di crawl. Usalo come canale ufficiale per dire a Google cosa vuoi indicizzare. (Ex Google Webmaster Tools.)
  • Ahrefs — controlla i profili di backlink e i link esterni che possono portare all’indicizzazione di pagine che pensavi nascoste; individua contenuti duplicati su domini diversi.
  • Lighthouse / PageSpeed Insights — pagine lente riducono l’efficienza del crawl perché Googlebot ha limiti di tempo e risorse; migliorare le performance aiuta sia il crawling sia l’esperienza utente.
  • Schema.org — i dati strutturati non influenzano direttamente il crawl budget, ma aiutano Google a interpretare più velocemente le pagine importanti e possono migliorare la visibilità nei risultati.
  • Googlebot — capisci il suo comportamento: recupera pagine, rispetta robots.txt per il crawling e segue i redirect. Monitora i log del server per vedere l’attività reale di Googlebot.

A practical audit checklist you can run this week

  • Crawl del sito con Screaming Frog ed esporta l’elenco di soft 404s, errori 4xx/5xx e redirect chain.
  • Confronta quella scansione con gli URL presenti nella tua XML sitemap. Rimuovi dal sitemap gli URL non essenziali.
  • Usa l’URL Inspection di Google Search Console per le pagine chiave; conferma che siano crawlable e indicizzate come desideri.
  • Scansiona titoli e contenuti duplicati; decidi URL canonici o applica noindex dove opportuno.
  • Controlla i log del server per l’attività reale di Googlebot — quali pagine visita, quanto tempo ci spende e quali restituiscono errori.
  • Esegui Lighthouse / PageSpeed Insights su template rappresentativi e risolvi i problemi di performance evidenti.
  • Rivedi i backlink in Ahrefs per le pagine che hai bloccato via robots.txt — link esterni possono comunque portare all’indicizzazione.
    Questi passaggi sono pratici e vanno dritti all’essenziale di un buon audit SEO tecnico.

If you want pages fully removed from Google

  • Usa un meta tag noindex sulla pagina e permetti a Googlebot di scansionarla (non bloccarla in robots.txt). Poi lascia che Google la ricrawl e la rimuova.
  • Oppure elimina la pagina e restituisci un 404/410 corretto; poi richiedi rimozione in Google Search Console se vuoi accelerare il processo.
  • Ricorda: robots.txt da solo impedisce il crawling ma può lasciare l’URL visibile nei risultati con informazioni minime.

Final, practical note
L’igiene di crawling e indicizzazione è una parte poco glamour ma ad alto rendimento della SEO. Risolvi i problemi rumorosi e sprecati — soft 404s, redirect, duplicati — invia una sitemap pulita a Google Search Console e usa noindex quando vuoi davvero escludere qualcosa dall’indice. Usa gli strumenti (Screaming Frog, Screaming Frog SEO, Ahrefs, Lighthouse/PageSpeed Insights, validazione Schema.org e altri strumenti per webmaster) per guidare le azioni. Piccoli interventi costanti qui permettono a Googlebot di lavorare in modo più intelligente per te — ed è proprio la leva che cerchi.

If your Google rankings don’t improve within 6 months, our tech team will personally step in – at no extra cost.


All we ask: follow the LOVE-guided recommendations and apply the core optimizations.


That’s our LOVE commitment.

Ready to try SEO with LOVE?

Start for free — and experience what it’s like to have a caring system by your side.

Conclusion

Hai visto tanto — ora mettilo in ordine. La regola semplice: Prioritizza, Automatizza, Misura. Ripeti queste tre azioni con costanza e trasformerai il lavoro “a fuoco” in miglioramento continuo e visibile — esattamente ciò che richiede un buon audit SEO tecnico.

How often to audit

  • Run lightweight checks monthly to catch regressions early. Use quick tests and automated alerts so problems don’t linger.
  • Do a full technical audit quarterly or any time you’ve made major site changes (CMS upgrade, new templates, mass redirects). That’s when you need a deeper pass across crawls, redirects, structured data and performance.
    Why? Small monthly checks stop small issues becoming site-wide problems; quarterly audits reset strategy and catch slower trends.

How to prioritise fixes (use Impact × Effort)

  • Calculate Impact × Effort for each issue. High-impact, low-effort items are your quick wins.
  • Start with pages that drive traffic or conversions. If a top landing page has indexation or performance problems, fix it first — that’s where wins matter most.
  • Next, tackle technical issues that affect many pages (redirect chains, widespread noindex mistakes, crawl budget leaks).
  • Finish with lower-impact or high-effort cosmetic changes.
    This keeps your resources focused where they move the needle fastest — traffic, conversions and indexation.

Automate to catch regressions

  • Schedule regular crawls with tools like Screaming Frog to detect new 4xx/5xx responses, duplicate content, and redirect chains.
  • Turn on alerts in Google Search Console for spikes in errors, coverage drops, or security warnings.
  • Use scheduled Lighthouse / PageSpeed Insights runs for automated Core Web Vitals monitoring.
    Automation gives you an early warning system so you spend time fixing, not finding problems.

Practical tool map (what to use for what)

  • Google Search Console — indexing reports, coverage errors, manual actions, and the best place for Google’s signals and alerts.
  • Screaming Frog — deep, URL-level crawling to find issues at scale on your site structure.
  • Googlebot — remember this is the crawler you’re optimizing for; test how Googlebot renders pages (fetch-as-Googlebot or live tests) when you suspect rendering/indexing issues.
  • Schema.org — implement and validate structured data to help search engines understand entities and rich result eligibility.
  • Lighthouse / PageSpeed Insights — measure Core Web Vitals and actionable front-end performance fixes.
  • Ahrefs — backlink and keyword intelligence to prioritise pages with link equity or keyword opportunity.
  • And keep pragmatic advice in mind from people like John Mueller: focus on what helps real users and monitor the Search Console signals rather than obsessing over every small metric.

What success actually looks like

  • Higher indexation: more important pages in Google’s index and fewer coverage surprises.
  • Improved Core Web Vitals: stable LCP/CLS/FID (or Interaction to Next Paint/INP updates) scores across key templates.
  • Fewer errors: declining numbers in Search Console errors, crawl anomalies, and broken links.
  • Positive rankings and traffic trends: measured lifts in organic traffic, conversions and keyword positions for priority pages.
    Those are measurable signs you’re winning. If you see a steady move in these metrics after prioritized fixes, that’s real progress.

Quick checklist to close the loop

  • Monthly: automated crawl + Search Console check + PageSpeed run.
  • Quarterly (or after major changes): full audit with Screaming Frog, structured-data sweep (Schema.org), backlink review (Ahrefs), and performance deep-dive (Lighthouse).
  • Prioritise by Impact × Effort, fix traffic/conversion pages first, then bulk technical items.
  • Automate alerts and scheduled scans so regressions get caught early.
  • Measure success with indexation, Core Web Vitals, fewer errors, and traffic/ranking trends.

Note pratico finale: integra questi controlli nel tuo workflow come farebbe chi usa strumenti per webmaster e piattaforme come Google Search Console (ex Google Webmaster Tools). Usa Screaming Frog o Screaming Frog SEO per crawl regolari, fai audit SEO tecnico completi a intervalli fissi e applica la regola Prioritizza–Automatizza–Misura. Non serve la perfezione settimanale: servono abitudini ripetibili che trasformano l’audit in crescita, non in lavoro fine a se stesso.

Author - Tags - Categories - Page Infos

Questions & Answers

La SEO tecnica è il lavoro che rende il tuo sito facilmente esplorabile, indicizzabile e comprensibile dai motori di ricerca. Include la velocità del sito, la possibilità di crawl, la compatibilità mobile, la sicurezza (HTTPS), i dati strutturati, i redirect e l'architettura complessiva del sito. Perché è importante? Perché i motori di ricerca non possono posizionare pagine a cui non riescono ad accedere o che non riescono a comprendere.
La SEO tecnica comprende velocità e prestazioni del sito, ottimizzazione per dispositivi mobili, crawlability e indicizzabilità, robots.txt e sitemap XML, redirect e tag canonical, HTTPS, dati strutturati, problemi di server e hosting, e la risoluzione di errori come 404 e contenuti duplicati. Pensala come le fondamenta del sito — se sono solide, gli altri interventi SEO funzionano meglio.
Un audit SEO tecnico è un controllo sistematico dell'infrastruttura di un sito web per individuare problemi che impediscono il crawling, l'indicizzazione o il posizionamento. Di solito analizza lo stato di salute del sito, lo stato di indicizzazione, gli errori di crawl, la velocità, l'esperienza mobile, i dati strutturati, i redirect e la sicurezza. L'obiettivo è una lista prioritaria di correzioni da implementare per migliorare la visibilità.
Esegui un crawler (es. Screaming Frog) per mappare le pagine e trovare link rotti e redirect. Controlla Google Search Console per problemi di copertura e indicizzazione. Testa la velocità del sito e i Core Web Vitals, verifica l'usabilità mobile, ispeziona robots.txt e sitemap, verifica i dati strutturati e analizza i log del server per i pattern di crawling. Prioritizza le correzioni in base a impatto e sforzo, quindi monitora le modifiche in Search Console.
Rendi la SEO tecnica parte delle operazioni di routine: monitora Search Console e gli analytics, esegui crawl periodici, mantieni aggiornate le sitemap, cura il robots.txt, correggi nuovi 404 e catene di redirect, ottimizza i nuovi contenuti per velocità e mobile e applica i dati strutturati dove rilevante. Piccole correzioni regolari prevengono problemi di crawling e indicizzazione più gravi in futuro.
Screaming Frog è un crawler per desktop che scansiona il tuo sito come farebbe un motore di ricerca. Trova link rotti, redirect, meta tag mancanti, contenuti duplicati e altro. Pensalo come un'ispezione del sito veloce e dettagliata da usare per audit e risoluzione dei problemi.
Assicurati che le pagine siano indicizzabili (niente noindex, accessibili e collegate). Invia una sitemap XML in Google Search Console e usa lo strumento di ispezione URL per richiedere l'indicizzazione delle pagine importanti. Migliora il linking interno e riduci le barriere al crawl affinché Googlebot scopra le pagine in modo naturale. Le pagine veloci, ottimizzate per mobile e con contenuti di qualità vengono indicizzate più rapidamente.
Puoi aumentare il crawl budget effettivo migliorando la velocità del sito e la risposta del server, riducendo pagine duplicate e di scarso valore, correggendo parametri URL infiniti e catene di redirect, e mantenendo una sitemap pulita. Usa il linking interno per mettere in evidenza le pagine importanti e monitora le statistiche di crawl in Search Console. Google regola il budget in base allo stato di salute e all'importanza del sito.
Usa design responsive o dynamic serving affinché il layout si adatti agli schermi. Includi il meta tag viewport, comprimi le immagini, dai priorità ai contenuti visibili, snellisci CSS/JS e testa con il Mobile-Friendly Test di Google. Verifica anche le dimensioni dei touch target e dei font. Miglioramenti mobile-first aiutano ranking ed esperienza utente.
Apri Google Search Console e vai al rapporto Copertura. Cerca le pagine elencate sotto "Non trovato (404)" o controlla la sezione "Esclusi". Puoi anche usare le informazioni Legacy "Errori di crawling" se disponibili, e incrociare con un crawl del sito o i log del server per confermare e individuare la fonte dei link che causano i 404.
Mantieni robots.txt semplice ed evita di bloccare CSS/JS necessari per il rendering. Aggiungi una direttiva sitemap che punti alla tua sitemap XML. Usalo per bloccare percorsi realmente privati o duplicati, non per nascondere contenuti che vuoi vengano crawlati. Testa le modifiche con il robots.txt Tester di Google Search Console prima di pubblicarle.