RAPPORT

Aperçu des rapports disponibles avec Screaming Frog pour une analyse granulaire et ponctuelle

Rapport sur les opportunités

Ces dernières années, Screaming Frog a beaucoup investi dans la mise à jour de l’outil Spider et, dans le même temps, les “rapports” disponibles se sont multipliés. L’outil vous permet de vous livrer à des exportations de données en fournissant toute une série de documents ad hoc pour analyser spécifiquement les questions les plus critiques.

La liste des documents est disponible dans le menu principal et vous pouvez les enregistrer localement en ‘.csv’, ‘.xls’, ‘xlsx’ ou en ‘gsheet’ en utilisant Google Drive. Dans ce dernier cas, vous les trouverez dans le dossier “Screaming Frog SEO Spider” dans Drive.

Redirection

Ce rapport vous fournit les données que vous trouvez dans la barre latérale de Seo Spider.

Le document est un résumé très utile de l’analyse à utiliser en premier lieu pour une supervision descendante de chacun des onglets et de leurs filtres respectifs.

Vue d’ensemble du crawl

Ces documents mettent l’accent sur les redirections découvertes lors de l’analyse en identifiant l’origine du lien.

Vous disposez actuellement de trois rapports différents :

  • Toutes les redirections: affiche toutes les redirections individuelles et indique la présence d’éventuelles chaînes de liens.
  • Chaînes de redirection: comprend les URL avec 2 ou plusieurs redirections consécutives créant une dangereuse “chaîne de redirection”.
  • Chaînes de redirection et canoniques : identifie les URL avec au moins 2 redirections et chaînes d’URL “canoniques”.
Report di screaming frog sui reindirizzamenti

Les documents “Redirect Chains” et “Redirect and Canonical Chains” sont très utiles pour cartographier les situations de “redirect”, “canonical” et “loop”, en vous permettant d’identifier le nombre de sauts le long du chemin et les URL sources.

> En mode araignée (Mode Spider), ces rapports vous montrent toutes les redirections découvertes à partir d’un seul saut.

Le document est divisé en colonnes et comprend

  1. le “nombre de redirections”.
  2. Le type de chaîne identifié :
    1. Redirection HTTP,
    2. JavaScript Redirect,
    3. Canoniques.
    4. etc.
  3. S’il existe des boucles de redirection.

Si le rapport ne contient aucun enregistrement, cela signifie que le moteur de recherche n’a pas trouvé de boucles ou de chaînes de redirections qui doivent être optimisées.

> Les rapports “Redirects”, “Redirect Chains” et “Redirect & Canonical Chains” peuvent également être téléchargés lors de la numérisation en mode liste (Mode List). Dans ce cas, le document affichera une ligne pour chaque URL fourni dans la liste.

En cochant les options “Toujours suivre les redirections” et “Toujours suivre les canoniques”, le Seo Spider continuera à analyser les redirections et les canoniques en mode liste, sans tenir compte de la profondeur d’analyse. En bref, il suivra toutes les étapes jusqu’à la destination finale.

Veuillez noter que les documents de redirection seront particulièrement utiles lors de la migration d’un site web afin de vérifier la redistribution correcte des classements acquis et de ne pas gaspiller inutilement les budgets d’exploration.

Canoniques

Les documents “Canonical Chains” et “Non-Indexable Canonicals” mettent en évidence les erreurs et les problèmes liés aux éléments de liens canoniques ou à la mise en œuvre des liens canoniques HTTP.

1. Le rapportChaînescanoniques” met en évidence toutes les URL qui ont plus de 2 liens canoniques dans une chaîne.

  • L’URL A est “canonisé” et possède une “URL canonique” vers l’URL B.
  • L’URL B est également “canonisée” vers l’URL C.

2. Le rapport“Liens canoniques non indexables” met en évidence les erreurs et les problèmes liés aux liens canoniques. En particulier, ce rapport montre tous les liens canoniques dont l’URL de destination est bloquée par robots.txt, qui ont un code de statut 3XX, 4XX ou 5XX ou qui ont une réponse autre que 200 “OK”.

Ce rapport fournit également des données sur toutes les URL qui ont été découvertes par le Seo Spider via le lien “canonique” mais qui n’ont pas de liens (liens internes) à partir du site.

Ces données seront disponibles dans la colonne “non liée” marquée “vrai”.

Pagination

Spider Seo propose deux rapports dédiés à la pagination :

  • “URL de pagination non-200”
  • “URL de pagination non liés

Ces deux documents sont très utiles pour signaler les erreurs et les problèmes critiques liés aux attributs “rel=prev” et “rel=next” des pages.

En consultant “Non-200 Pagination URLs”, vous pouvez identifier chaque URL avec les attributs “rel=prev” et “rel=next” qui appelle des ressources avec un code de statut autre que 200.

Le filtre ‘Unlinked Pagination URLs’ vous aidera à définir toutes les urls qui ont été découvertes par le Seo Spider grâce aux attributs ‘next/prev’, mais qui n’ont pas de connexion interne (lien) avec le site web.

Au moment de la rédaction du guide, ces attributs ne sont plus pris en compte par Google, mais sont encore utilisés par d’autres moteurs de recherche.

Hreflang

La balise Hreflang permet à Google de connaître les différentes versions linguistiques d’une page web et de renvoyer à l’internaute la version la plus appropriée en fonction de son navigateur.

Screaming Frog consacre 7 documents à télécharger, chacun portant sur un aspect différent de l’attribut :

  • Toutes les URL Hreflang : ce rapport est le plus complet et rassemble toutes les URL et les URL Hreflang, y compris les indications par région et par langue découvertes au cours de l’exploration.
  • URL Hreflang non-200: ce document vous permet de savoir quelles pages contiennent des liens Hreflang vers des pages ayant un code de statut autre que 200 (pas de réponse, bloqué par robots.txt, réponses 3XX, 4XX ou 5XX).
  • Unlinked Hreflang URLs: document qui détecte tous les URLs découverts via un lien “Hreflang” mais qui n’ont même pas d’hyperlien dans le site (par exemple, les pages orphelines).
  • Liens de confirmation manquants: ce rapport vous permet d’identifier les URL pour lesquels il manque des liens de confirmation. Par exemple, la page A a un hreflang vers la page B et informe le robot du moteur de recherche que A et B sont deux versions linguistiques du même contenu, mais B n’a pas de hreflang vers la page A, ce qui crée une incohérence.
  • Liens de confirmation en langue incohérente: ce rapport montre les pages de confirmation qui utilisent des codes de langue incohérents et différents pour le même contenu.
  • Liens de confirmation non canoniques: ce document montre les URL avec hreflang avec destination vers des éléments “non canoniques”. Si vous décidez de “canoniser” un élément, vous informez le robot d’indexation que ce contenu spécifique a une version primaire “canonique” et que vous devez donc inclure cette version dans votre “hreflang”.
  • Liens de confirmation Noindex : rapport idéal pour trouver des URL avec la balise Hreflang vers des ressources avec l’attribut “No index”. Là encore, le fait d’envoyer le robot vers des ressources “non indexables” crée une énorme incohérence entre le choix d’inhiber un élément de contenu et celui de l’inviter à servir cet élément en tant que version dans la langue principale.

Pages orphelines

Les pages orphelines sont des URL qui ne reçoivent aucun lien interne depuis d’autres pages du site web et qui ne peuvent être atteintes par le robot d’exploration parce qu’elles sont isolées.

Le rapport “Pages orphelines” fournit une liste d’URL collectées via la connexion entre Seo Spider et Google Analytics API, Google Search Console (Search Analytics API) ou découvertes via les sitemaps XML qui ne correspondent pas aux URL découvertes lors de l’exploration.

En résumé, vous recevez des URL qui ne peuvent pas être atteints par le Seo Spider en raison de l’absence de liens à suivre ou qui ont l’attribut “no follow”.

Mais s’ils n’ont pas de liens, pourquoi existent-ils dans les bases de données de Google Analytics ou de Search Console ?

Ils ont probablement été indexés avec la version précédente du site ou à partir d’autres sources telles que les sitemaps XML, ou ils sont référencés.

Pour collecter des données sur les pages orphelines, il suffit de configurer l’API via les configurations de Seo Spider.

> > >Configurer l’accès aux API Choisir les API à connecter Se connecter à un nouveau compte (ou se connecter à des comptes précédemment configurés)

À la fin de l’analyse, il est essentiel d’utiliser l’outil “Crawl Analysis” pour remplir l’onglet correspondant avec des données.

Les sources disponibles pour vérifier les pages orphelines sont les suivantes :

  • GA : l’URL a été découverte via l’API de Google Analytics.
  • GSC: l’URL a été découverte dans Google Search Console, à partir de l’API Search Analytics.
  • Sitemap: l’URL a été découverte via le Sitemap XML.
  • GA & GSC & Sitemap: l’URL a été découverte dans Google Analytics, Google Search Console et XML Sitemap.

Bonne pratique : afin d’optimiser votre analyse SEO avec l’API Google Analytics, je vous recommande de choisir “Landing Page” comme dimension et “Organic Traffic” comme segment afin d’obtenir des données plus pertinentes et d’éviter les pages de connexion, les pages de panier de commerce électronique, etc.

Contenu non sécurisé

Ce rapport est très utile car il vous signale les URL dont le contenu est jugé dangereux et vous permet d’éviter les avertissements de sécurité du navigateur qui pourraient faire fuir l’internaute.

Le document “Contenu non sécurisé” vous présente toutes les URL sécurisées (HTTPS) qui contiennent des éléments de protocole HTTP non sécurisés tels que des liens internes, des images, JS, CSS, SWF ou des images externes sur un CDN, des profils sociaux, etc.

Ce rapport s’avère très utile, en particulier lors de la phase de migration, pour avoir une vue d’ensemble des points critiques potentiels.

esempio blocco pagina non sicura su firefox

Voici un exemple de fichier où les destinations des images ont un protocole “http” et ne sont pas considérées comme fiables par l’outil Spider.

Report di screaming frog suigli elementi non sicuri del sito web

Données structurées

Comme vous le savez, les données structurées jouent un rôle informatif pour le moteur de recherche et, si elles sont gérées correctement, elles offrent d’énormes avantages en termes de visibilité grâce aux différentes fonctionnalités du moteur de recherche.

Screaming Frog vous fournit quatre rapports pour évaluer et optimiser tout problème de validation critique dans les données structurées :

  • Résumé des erreurs de validation et des avertissements: regroupe les données structurées en fonction des erreurs de validation uniques et des avertissements découverts en indiquant le nombre d’URL affectés par chaque problème critique, avec des exemples d’URL identifiant le problème spécifique.
  • Erreurs de validation et avertissements: affiche toutes les erreurs de validation des données structurées de manière granulaire pour chaque URL, y compris le nom de la propriété (Organisation, etc.), le format (JSON-LD, etc.), la gravité du problème (erreur ou avertissement), le type de validation (Google Product, etc.) et le message associé au problème (par exemple : la propriété /review est requise).
  • Résumé des fonctionnalités de résultats enrichis de Google : regroupe les données relatives aux “fonctionnalités de résultats enrichis de Google” détectées lors d’une exploration en indiquant le nombre d’URL présentant chaque fonctionnalité individuelle.
  • Fonctionnalités des résultats enrichis de Google: permet de cartographier chaque URL en fonction des différentes fonctionnalités disponibles et d’indiquer celles qui ont été trouvées pour chaque URL.
Report di screaming frog sui dati strutturati trovati durante la scansione

Pagespeed

Ce rapport est basé sur l’API Page speed Insight et fournit tous les principaux indicateurs du temps de chargement des pages web, ce qui permet un diagnostic très précis des blocages ou des causes qui entravent les performances.

> > Config API Access Pagespeed Insights

Panoramica del report "Pagespeed" di Screaming Frog
  • Résumé des opportunités PageSpeed: résume toutes les opportunités uniques découvertes sur le site, le nombre d’URL concernées et les économies potentielles moyennes et totales en termes de taille et de millisecondes afin d’établir des priorités d’action.
  • Résumé de la couverture CSS: permet de gagner du temps si le code inutilisé de chaque CSS chargé dans le site est supprimé.
  • Résumé de la couverture JavaScript: met en évidence la part de chaque fichier JS qui n’est pas utilisée lors de l’analyse et les économies potentielles réalisées en éliminant le code inutilisé chargé.

Résumé de l’en-tête HTTP

Ce document renvoie une vue agrégée de tous les en-têtes de réponse HTTP découverts au cours d’une analyse. Affiche chaque en-tête de réponse HTTP unique et le nombre d’URL uniques qui ont répondu avec l’en-tête.

Pour alimenter les données avec des “en-têtes HTTP”, vous devez activer la fonction correspondante.

> > Config Spider Extraction

Vous trouverez plus de détails sur les URL et les en-têtes dans l’onglet “En-têtes HTTP” de la fenêtre inférieure et dans le document d’exportation “Tous les en-têtes HTTP”.

> > Bulk Export Web All HTTP Headers

Vous pouvez également interroger les en-têtes HTTP directement dans l’onglet “Interne”, où ils sont ajoutés dans des colonnes distinctes et uniques.

Résumé du cookie

Le rapport “Cookie Summary” présente une vue d’ensemble des cookies uniques découverts au cours d’une analyse, en tenant compte de leur nom, du domaine de référence, de l’expiration, des valeurs de sécurité et de l’option HttpOnly.

Le nombre d’URL sur lesquels chaque cookie unique a été émis est également affiché.

Pour utiliser ce rapport, il suffit d’autoriser l’extraction de “cookies”.

> > Config Spider Extraction

N’oubliez pas d’activer également le mode de rendu JavaScript pour obtenir un aperçu précis des cookies chargés sur la page à l’aide de JavaScript ou de balises d’image pixel.

Ce rapport agrégé est extrêmement utile pour se conformer au GDPR sur la vie privée.

Vous trouverez de plus amples informations dans l’onglet “Cookies” de la fenêtre inférieure et dans l’exportation “Tous les cookies”.

> > Bulk Export Web All Cookies

Chemin de chenilles

Vous ne trouverez pas le rapport sur le chemin de crawl dans le menu principal, contrairement aux précédents.

Le document est disponible en cliquant avec le bouton droit de la souris sur une URL dans la fenêtre supérieure de Seo Spider et en sélectionnant l’option “exporter”.

il crawl path report di Screaming Frog

Ce rapport indique le chemin le plus court que le SEO Spider a suivi pendant le crawl pour découvrir l’URL.

Cette information peut s’avérer très utile pour les pages dont la “profondeur de crawl” est très importante et vous évite d’avoir à consulter les “inlinks” de nombreuses URL pour découvrir la source d’origine ; son application pourrait faire partie du diagnostic des URL infinies causées par des plug-ins ou des calendriers périodiques.

Vous devez examiner le rapport de bas en haut. Le premier URL en bas de la colonne “source” est le premier URL analysé (avec un niveau “0”).

La colonne “destination”, quant à elle, vous indique les URL qui ont été analysés ensuite et qui constituent les URL “sources” du niveau suivant (1) et ainsi de suite.

Le premier URL dans la colonne “destination” au début du rapport sera l’URL du rapport sur le chemin de balayage.

Seo Spider Tab