Versione 20 – Cracker
La versione 20.2 chiamata “cracker” corrisponde a un eccezionale “Major Update” del Seo Spider con nuove funzionalità legate all’intelligenza artificiale, miglioramento dei link interni, analisi N-gram e molto altro che andrò a definire nei prossimi paragrafi.
Custom Javascript Snippets
Da questa versione potrai eseguire JavaScript personalizzato durante il crawling. Ciò significa che potrai manipolare le pagine o estrarre dati, oltre a comunicare con le API di ChatGPT di OpenAI, LLM locali o altre librerie.
Per utilizzare la funzione basterà andare su “Configurazione > Personalizzato > JavaScript personalizzato” e cliccare su “Aggiungi” per configurare il tuo snippet JS personalizzato, o scegliere “Aggiungi dalla libreria” per selezionare uno degli snippet preimpostati e davvero molto utili predisposti dallo staff di Screaming Frog.


Per utilizzare questa funzione dovrai impostare la modalità di “Rendering JavaScript” da “Configurazione > Spider > Rendering” prima di eseguire il crawling, e i risultati li potrai consultare nella nuova scheda JavaScript personalizzato.

Crawl con ChatGPT
Tra le opzioni del nuovo JS custom potrai selezionare lo snippet “Template (ChatGPT)”, aprirlo nell’editor JavaScript, aggiungere la tua chiave API di OpenAI e definire il prompt per interrogare qualsiasi cosa desideri su una pagina durante il crawling.
In cima a ciascun template, potrai apprezzare un commento che spiega come regolare lo snippet. Potrai inoltre fare il debug nella finestra di dialogo dell’editor JavaScript a destra prima di eseguire il crawling.

Questa funzionalità prevede un enorme versatilità e potrai regolare il modello OpenAI utilizzato, il contenuto specifico analizzato e altro ancora. Questo potrà aiutarti a eseguire compiti piuttosto dettagliati, come ad esempio generare testo alternativo per le immagini al volo.
Una volta finiti i test e i debug ed aver configurato i tuoi snippet, verranno salvati nella tua libreria utente e potrai esportare/importare la libreria in formato JSON e condividerli con estrema semplicità.

Mobile Usability
Altra novità veramente utile è rappresentata dalla verifica dell’usabilità mobile su larga scala tramite l’integrazione di Lighthouse (anche in locale).
Nella finestra superiore del SEO Spider troverai una nuova scheda “Mobile” con i rispettivi filtri che rimangono in linea con le indicazioni già presenti in Google Search Console.
Filtri a disposizione:
- Viewport not set;
- Target Size;
- Content not size Correctly;
- Contains Unsupported Plugins;
- Mobile Alternate Links.

Quest’opportunità richiede la connessione tramite API a PSI (Config > API Access>PSI)

I dettagli di questa analisi li potrai trovare nella parte inferiore del Seo Spider nella tab “Lighthouse”.
Per esportare i dati ti basterà esportare il report > Mobile dal menu principale.


N-gram Analysis
Grosse novità del Seo Spider a livello “Content ” e Linking Interno grazie alla nuova funzione “N-gram“.
Da oggi in poi potrai analizzare la frequenza delle frasi ricorrenti utilizzando l’analisi n-gram delle pagine di un crawl, o aggregata su una selezione di pagine di un sito web.
Per abilitare questa funzionalità, è necessario abilitare “Store HTML / Store Rendered HTML” in “Configurazione > Spider > Estrazione”. Gli “n-gram” potranno quindi essere visualizzati nella nuova scheda inferiore dedicata.

IMPORTANTE: questa funzione non dovrebbe essere vista come una crociata a favore delle parole chiave (deprecated) ma come uno strumento di supporto nella definizione onpage della semantica e garantire il Search Intent che si vuole definire.
Attraverso lo studio degli N-gram sarà possibile potenziare parole chiave strategiche e migliorare il linking interno del sito web.
Ad esempio, analizzando i top competitors potresti trovare e definire anche gli N-gram del tuo sito web e attraverso il Seo spider ridefinire il linking interno.
Anchor text Aggregati
Integrazione di nuovi filtri per gli “Anchor Text” nelle tab “Inlinks” e “Outlinks”. Questi filtri ti permetteranno di visualizzare in modo aggregato il testo dell’ancora verso un URL o selezione di Url per le tue analisi.

Potrai anche filtrare i collegamenti auto-riferiti e i collegamenti “nofollow” per maggiore chiarezza di analisi (sia per gli anchor che per i collegamenti).
Sarà poi possibile fare clic sul testo dell’ancora per vedere esattamente su quali pagine si trova e scoprire i classici dettagli del collegamento.
Local Lighthouse Integration
L’ultima novità molto significativa è rappresentata dalla possibilità di eseguire Lighthouse localmente durante il crawling per recuperare i dati di PageSpeed.
Ti basterà selezionare la fonte come “Locale” tramite “Configurazione > Accesso API > PSI”.
Ovviamente sarà ancora possibile connettersi tramite l’API PSI per raccogliere dati esternamente che possono includere i dati sul campo di CrUX. Attraverso Lighthouse “Local” non potrai elaborare tali dati ma ti sarà comunque estremamente utile quando un sito è in fase di sviluppo e richiede l’autenticazione per l’accesso, o desideri controllare un gran numero di URL.





