Google è ancora importante. Ma nel 2025, ChatGPT, Perplexity, Claude e Gemini stanno diventando il primo punto di contatto tra utenti e informazioni. Se gli spider AI non capiscono il tuo sito, non esisti — indipendentemente da quanto sei posizionato su Google.
Analizza il tuo sito gratis →I motori di ricerca tradizionali usano crawler che leggono HTML, seguono link e analizzano keyword. Gli spider AI di nuova generazione fanno qualcosa di radicalmente diverso: cercano di capire il significato del tuo contenuto, non solo le parole.
Per farlo, si affidano a dati strutturati, markup semantico e standard aperti. Un sito senza questi elementi viene ignorato o, peggio, interpretato in modo errato dai modelli linguistici che milioni di utenti interrogano ogni giorno.
Il risultato: siti tecnicamente corretti, ben posizionati su Google, ma completamente invisibili agli AI.
Così come robots.txt parla ai crawler e sitemap.xml descrive la struttura, il file llms.txt è lo standard emergente per comunicare direttamente con i modelli linguistici chi sei, cosa fai e come vorresti essere citato.
Definisci tu come vuoi essere descritto da ChatGPT, Claude e Perplexity quando rispondono a domande nel tuo settore.
I modelli linguistici usano queste informazioni per citare correttamente la fonte, aumentando le probabilità che il tuo sito venga menzionato nelle risposte.
Un semplice file di testo. Nessun plugin, nessun codice. Basta caricarlo nella root del sito o in /.well-known/.
Adottato da OpenAI, Anthropic e Perplexity come segnale volontario di ottimizzazione AI. Prima lo implementi, prima ne benefici.
llms.click analizza il tuo sito su 6 categorie fondamentali, ognuna con impatto diretto sulla visibilità AI e sul posizionamento nei motori di ricerca.
Schema.org è il vocabolario condiviso tra Google, Bing, Yahoo e Yandex per descrivere il contenuto delle pagine in modo comprensibile alle macchine. Gli AI spider lo usano per costruire knowledge graph e rispondere alle domande degli utenti.
I modelli linguistici come GPT-4 e Claude leggono il tuo HTML come farebbe un lettore umano — ma sono molto più sensibili alla struttura. Heading gerarchici, paragrafi chiari e testo alternativo non sono optional: sono la grammatica che gli AI usano per capire chi sei.
Una sitemap XML ben formata è il modo più diretto per comunicare agli spider — sia tradizionali che AI — quali pagine vuoi che vengano indicizzate, con quale priorità e con quale frequenza di aggiornamento. Il file robots.txt definisce le regole di accesso.
I metadata OGP (ogp.me) controllano come il tuo sito appare quando viene condiviso sui social, ma influenzano anche i preview generati dagli AI assistant. Titolo, descrizione e immagine corretti aumentano il CTR e la comprensione del contesto da parte dei modelli.
Le linee guida WCAG 2.1 del W3C non sono solo un obbligo morale: in Europa sono un requisito legale per PA e grandi aziende (Direttiva EU 2016/2102, EN 301 549). Google usa i segnali di accessibilità come fattore di ranking. I siti non accessibili perdono posizioni.
Google ha reso i Core Web Vitals fattore di ranking ufficiale dal 2021. LCP, FID/INP e CLS misurano l'esperienza utente reale. Tempi di caricamento elevati aumentano il bounce rate e riducono la probabilità che i crawler completino la scansione delle pagine.
L'Unione Europea ha introdotto negli ultimi anni una serie di normative che impattano direttamente sulla struttura tecnica dei siti web. L'ignoranza non è un'esimente — le sanzioni possono essere significative.
Il Regolamento Generale sulla Protezione dei Dati richiede consenso esplicito per i cookie di profilazione, informative privacy chiare e accessibili, e nomina del DPO per determinate categorie di titolari. I siti non conformi rischiano sanzioni fino al 4% del fatturato globale annuo.
Il primo regolamento al mondo sull'intelligenza artificiale. Entrato in vigore nell'agosto 2024, impone obblighi di trasparenza sui contenuti generati da AI (watermarking, disclosure). I siti che usano AI per generare contenuti senza disclosure rischiano sanzioni crescenti dal 2025.
Obbliga PA e grandi aziende private a garantire accessibilità WCAG 2.1 AA dei propri siti e app. In Italia recepita con D.Lgs. 106/2018 e aggiornata nel 2022. Dal 2025 si estende a nuove categorie di soggetti privati con sanzioni fino al 5% del fatturato.
Il Digital Services Act impone obblighi di trasparenza e responsabilità sulle piattaforme digitali. Per i siti con più di 45M utenti UE obblighi amplissimi, ma anche i siti minori devono garantire meccanismi di segnalazione contenuti e informative chiare.
La Direttiva sulla sicurezza delle reti e dei sistemi informativi estende gli obblighi di cybersecurity a molte più categorie di aziende. Impone misure tecniche minime (HTTPS, gestione vulnerabilità, incident response) con sanzioni fino a 10M€ o 2% del fatturato.
La direttiva ePrivacy regola l'uso di cookie e tecnologie di tracciamento. Il Garante italiano ha emesso numerosi provvedimenti sanzionatori. La nuova ePrivacy Regulation, ancora in negoziazione, introdurrà regole ancora più stringenti sul consenso.
Questi sono i principali crawler AI attivi nel 2025. Ognuno ha un user-agent specifico e politiche di accesso diverse. Il tuo robots.txt deve gestirli consapevolmente.
| Bot | Azienda | User-Agent | Usato per | Rispetta robots.txt |
|---|---|---|---|---|
| GPTBot | OpenAI | GPTBot/1.0 |
Training ChatGPT, browsing | Sì |
| ClaudeBot | Anthropic | ClaudeBot/1.0 |
Training Claude, ricerca | Sì |
| PerplexityBot | Perplexity AI | PerplexityBot/1.0 |
Risposta in tempo reale | Sì |
| Google-Extended | Google-Extended |
Training Gemini, SGE | Sì | |
| Applebot-Extended | Apple | Applebot-Extended |
Training Apple Intelligence | Sì |
| CCBot | Common Crawl | CCBot/2.0 |
Dataset aperti, molti LLM | Parzialmente |
| Bytespider | ByteDance | Bytespider |
Training modelli TikTok | Parzialmente |
| OAI-SearchBot | OpenAI | OAI-SearchBot/1.0 |
ChatGPT Search (live) | Sì |
Google penalizza i siti con URL multipli che servono lo stesso contenuto senza tag . Il PageRank si disperde tra le versioni e nessuna viene posizionata bene.
Dal 2018 Chrome marca i siti HTTP come "non sicuri". Google usa HTTPS come fattore di ranking dal 2014. I crawler AI rifiutano o penalizzano i contenuti da siti non cifrati.
LCP > 4s, CLS > 0.25 o INP > 500ms attivano la penalizzazione Page Experience di Google. I siti lenti perdono posizioni rispetto a competitor più veloci con contenuto simile.
I rich result (stelle recensioni, FAQ, breadcrumb nei SERP) richiedono dati strutturati validi. Markup errati vengono ignorati o, peggio, possono portare alla rimozione dei rich snippet.
Le immagini senza attributo alt sono invisibili agli spider AI e ai motori di ricerca immagini. Inoltre violano WCAG 2.1 e possono esporre a sanzioni legali per accessibilità.
Senza sitemap i crawler devono scoprire le pagine seguendo i link — processo lento e incompleto. Pagine orfane (senza link interni) non vengono mai indicizzate.
Oltre al punteggio tecnico, llms.click Gold interroga le AI reali con domande nella lingua del tuo sito e misura la tua presenza effettiva nelle risposte AI.
5 domande generate specificamente per il tema e il focus geografico del tuo sito — non query generiche che qualsiasi grande sito potrebbe rispondere.
Sito italiano → domande in italiano. Sito francese → domande in francese. Le risposte AI vengono verificate nella stessa lingua del tuo pubblico.
Ogni query mostra se sei citato o no, le fonti restituite e uno snippet della risposta AI. Completamente azionabile.