Introduzione

Molte aziende scoprono il problema troppo tardi: il nuovo sito è più moderno, più dinamico e spesso costruito con React, Next.js o un CMS headless, ma dopo il lancio alcune pagine smettono di ottenere rich results, Google fatica a leggere informazioni chiave oppure un e-commerce mostra segnali incoerenti tra pagina, markup e dati prodotto.

Non è una condanna delle tecnologie moderne. È quasi sempre un problema di implementazione.

Google è in grado di elaborare JavaScript, ma questo non significa che ogni configurazione sia ugualmente solida dal punto di vista SEO. Tra crawling, rendering, indexing, metadata, canonical e dati strutturati, basta una scelta tecnica sbagliata per rendere meno affidabile la visibilità di pagine che dovrebbero portare contatti, richieste o vendite.

Per un'azienda il costo non è teorico. Si traduce in snippet meno competitivi, informazioni poco chiare nei risultati di ricerca, perdita di opportunità su pagine commerciali e correzioni costose fatte quando il sito è già online.

In questo articolo vediamo cosa controllare davvero su dati strutturati e JavaScript SEO prima di lanciare o rifare un sito aziendale.

Perché il problema è più concreto oggi

Negli ultimi aggiornamenti della documentazione ufficiale, Google ha continuato a chiarire un punto importante: i siti JavaScript possono funzionare bene in Search, ma server-side rendering, static rendering o pre-rendering restano spesso la soluzione più affidabile per utenti e crawler.

Allo stesso tempo, Google ricorda che i dati strutturati generati via JavaScript vanno testati con attenzione. Per contenuti dinamici come prodotti, disponibilità e prezzi, una generazione tardiva o instabile può rendere il crawling meno affidabile proprio dove un'azienda ha più interesse a essere precisa.

Anche il mondo Next.js si è mosso nella stessa direzione: la documentazione ufficiale insiste su metadata e JSON-LD resi in modo esplicito nelle pagine o nei layout, non lasciati a logiche poco trasparenti lato client.

Tradotto in termini operativi: un sito moderno può essere eccellente per UX, performance e SEO, ma solo se l'architettura espone in modo stabile ciò che i motori di ricerca devono davvero capire.

Il primo equivoco: "Google legge JavaScript, quindi va bene tutto"

Questo è l'equivoco che crea più problemi nei redesign.

Molti team ragionano così: se Google riesce a eseguire JavaScript, allora possiamo caricare contenuto, metadata, canonical, JSON-LD e persino stati di errore dopo il caricamento della pagina senza particolari conseguenze.

In pratica non funziona così.

Google attraversa fasi diverse: crawling, rendering e indexing. Se una pagina restituisce un HTML iniziale troppo vuoto, se dipende da fetch client-side lenti, se il contenuto chiave compare solo dopo l'esecuzione di script o se alcune condizioni vengono gestite male, la SEO diventa meno prevedibile.

Il punto non è "Google non vede JavaScript". Il punto è che un'azienda non dovrebbe basare la propria visibilità organica su una catena fragile di dipendenze quando le pagine più importanti possono essere rese in modo più stabile fin dall'inizio.

Gli errori che fanno perdere visibilità

1. Contenuto chiave caricato solo dopo l'esecuzione client-side

Succede spesso su siti vetrina moderni, cataloghi, landing commerciali o portali headless: l'HTML iniziale contiene poco più di una shell, mentre testo, FAQ, dettagli prodotto o blocchi SEO arrivano dopo una chiamata API eseguita nel browser.

Se tutto funziona perfettamente, l'utente finale potrebbe non accorgersene. Ma sul piano SEO questo approccio aumenta il rischio:

  • il contenuto principale non è immediatamente disponibile
  • il rendering dipende da script, timing e risposte API
  • eventuali errori di fetch possono lasciare la pagina povera di segnali utili

Per una pagina che deve posizionarsi su query commerciali, è una debolezza evitabile.

2. Dati strutturati generati tardi o in modo incoerente

I dati strutturati aiutano i motori di ricerca a interpretare meglio il contenuto della pagina e, in alcuni casi, a mostrare rich results più utili.

Il problema nasce quando JSON-LD, breadcrumb, Article, Product o FAQ vengono:

  • inseriti solo dopo il caricamento client-side
  • popolati con dati non allineati al contenuto visibile
  • aggiornati in modo incoerente rispetto a prezzo, disponibilità o titolo effettivo della pagina

Questo è particolarmente delicato per gli e-commerce. Google ha esplicitato che markup prodotto generato dinamicamente può rendere i crawling di shopping meno frequenti e meno affidabili quando le informazioni cambiano spesso.

Per un'azienda significa una cosa semplice: se prezzo, disponibilità o caratteristiche sono centrali per la conversione, quei segnali devono essere esposti in modo robusto e verificabile, non affidati a un'iniezione tardiva che oggi funziona e domani no.

3. Canonical, meta robots e status code gestiti in modo incoerente

Un altro errore comune è pensare che canonical, noindex e stati di errore possano essere "sistemati dopo" lato client.

Qui il rischio è alto perché questi segnali influenzano direttamente come Google interpreta la pagina:

  • una canonical che cambia via JavaScript in modo incoerente può generare ambiguità
  • una pagina di errore servita con 200 invece di 404 crea casi di soft 404
  • un noindex aggiunto o rimosso nel momento sbagliato può portare a comportamenti inattesi

Quando un prodotto non esiste più, quando una pagina è duplicata o quando una landing è fuori scope, lo status code e i meta tag devono raccontare una storia chiara fin dalla risposta iniziale del server.

4. Routing SPA e link poco crawlable

Nei progetti single-page o con routing molto personalizzato, capita ancora di vedere navigazioni basate su frammenti, click handler poco trasparenti o link che non espongono un vero href.

Per l'utente la navigazione può sembrare fluida. Per i crawler, invece, le URL potrebbero risultare meno chiare o meno facilmente scopribili.

Se il sito ha pagine che devono essere raggiunte, comprese e indicizzate con precisione, i link interni devono restare espliciti e crawlable. La navigazione elegante non deve compromettere la discoverability.

5. Validare tutto con Lighthouse e quasi nulla con test SEO reali

Lighthouse è utile, ma non basta.

Un sito può avere un buon punteggio performance e allo stesso tempo avere problemi su:

  • HTML renderizzato
  • coerenza dei dati strutturati
  • snippet
  • canonical
  • crawling delle pagine profonde
  • gestione di stati edge come pagine non trovate o prodotti non disponibili

Per questo la verifica corretta richiede almeno Rich Results Test, URL Inspection in Search Console, controllo dell'HTML renderizzato e revisione delle pagine più sensibili dal punto di vista commerciale.

La checklist JavaScript SEO prima del go-live

Prima di mettere online un nuovo sito aziendale, un restyling o una migrazione headless, conviene verificare almeno questi punti:

  1. Le pagine che devono posizionarsi restituiscono HTML utile già nella risposta iniziale?
  2. Titolo, meta description, H1, canonical e robots sono coerenti senza dipendere da correzioni tardive lato client?
  3. I dati strutturati sono presenti nel markup finale e corrispondono davvero al contenuto visibile?
  4. Prezzi, disponibilità e attributi chiave vengono esposti in modo stabile sulle pagine prodotto?
  5. Errori, pagine rimosse e contenuti non più disponibili usano status code corretti?
  6. I link interni sono normali link HTML con href chiari e non solo interazioni JavaScript?
  7. Le pagine più importanti sono state testate con strumenti SEO che mostrano il rendering reale?

Questa checklist non richiede un audit infinito. Richiede soprattutto chiarezza architetturale prima del lancio.

Quando React, Next.js o un CMS headless sono una buona scelta

La conclusione non è "evita JavaScript". Sarebbe una lettura superficiale.

React, Next.js e le architetture headless hanno perfettamente senso quando il progetto ha esigenze reali di componenti dinamici, integrazioni, contenuti modulari, sezioni aggiornabili, performance avanzate o logiche applicative più evolute.

Il punto è un altro: le pagine SEO-critical non dovrebbero dipendere da scorciatoie tecniche che rendono fragile ciò che deve restare leggibile e stabile.

Se una landing porta lead, se una scheda prodotto deve essere interpretata correttamente, se un articolo deve mostrare markup coerente o se un catalogo deve essere esplorabile, la strategia di rendering va scelta anche in funzione di SEO, non solo di developer experience.

In molti casi, la soluzione migliore non è rinunciare allo stack moderno. È usarlo meglio:

  • pre-rendering per le pagine strategiche
  • metadata gestiti in modo esplicito
  • JSON-LD stabile e testato
  • logiche client-side limitate a ciò che non è critico per la comprensione della pagina

Cosa conviene chiedere al fornitore prima di approvare il progetto

Se sei un'azienda, un founder o un responsabile marketing, ci sono alcune domande molto utili da fare prima del go-live:

  • Le pagine più importanti vengono rese lato server o pre-renderizzate?
  • Dove vengono generati title, canonical e dati strutturati?
  • Come viene gestito un prodotto non disponibile o una pagina non trovata?
  • Quali contenuti dipendono da fetch client-side?
  • Come verificate il rendering SEO reale oltre ai test di performance?

Queste domande non servono a "controllare i developer". Servono a evitare che un progetto formalmente moderno nasconda fragilità che emergeranno solo dopo la pubblicazione.

Conclusione

Dati strutturati e JavaScript SEO non sono dettagli tecnici da sistemare alla fine. Sono parte della qualità architetturale del sito.

Quando il rendering è solido, i metadata sono coerenti e i segnali chiave sono esposti in modo stabile, uno stack moderno può offrire ottime performance, grande flessibilità e una SEO tecnica affidabile. Quando invece questi aspetti vengono improvvisati, il rischio è pagare un sito nuovo con la visibilità di uno costruito male.

Se stai pianificando un redesign, una migrazione a Next.js o un progetto headless, conviene verificare questi punti prima del lancio. Correggerli in fase di architettura costa molto meno che rincorrere problemi di crawling, rich results o indicizzazione a sito già pubblicato.