analyse planifiée

Comment effectuer un scan programmé avec Screaming Frog ?

Fonction “Scheduling”

Une fois que vous avez compris le potentiel de la fonction “Scheduling”, il ne vous reste plus qu’à la configurer en suivant quelques étapes, que nous verrons ci-dessous.

> Planification des fichiers

Au cours de cette première phase, vous pouvez définir certains aspects généraux de la recherche :

  • Nom: nom descriptif de l’analyse.
  • Nom du projet : nom du projet dans lequel insérer l’analyse.
  • Description: très utile pour définir textuellement toutes les particularités et options qui caractériseront le crawl.
  • Date/Heure: la date et l’heure de l’analyse et sa périodicité (ponctuelle, quotidienne, hebdomadaire ou mensuelle).
Funzione Scheduling di screaming frog

Configuration de l’araignée Seo

Dans le deuxième onglet “Options de démarrage”, vous pouvez choisir le mode d’exploration entre “araignée” et “liste”, entrer le “domaine racine” ou le sous-domaine et définir la configuration à appliquer à l’exploration, en choisissant parmi les différents “profils d’exploration” (s’il y en a).

Dans cet onglet, vous pouvez également intégrer via l’API l’analyse avec les données de Google Analytics, Search Console, Moz, Majestic et Ahrefs pour une vue plus granulaire du projet.

Sauvegarde des données

L’onglet “Exportation” vous permet de définir les onglets, les “exportations en bloc” et les rapports que vous souhaitez exporter. Vous pouvez choisir de ne télécharger qu’un onglet spécifique (par exemple “interne”, “méta-description” ou “titres”) ou de combiner plusieurs onglets et rapports en les sélectionnant dans la fenêtre disponible. Les données seront servies par défaut au format “.csv” et sauvegardées localement ou au format “gsheet”. Si vous choisissez cette deuxième option, vous trouverez les documents exportés dans le dossier “Screaming Frog SEO Spider” de Google Drive (vous devez avoir lié votre compte Google).

Une autre option très pratique de la “programmation” des analyses périodiques consiste à pouvoir choisir, à la fin de chaque analyse programmée, d’écraser automatiquement le document original de sorte que seule la dernière analyse soit conservée, ou de créer un “horodatage” qui ajoute un nouveau document au dossier et conserve l’historique de l’analyse.

Remarque : en utilisant le mode de stockage “Stockage de la base de données”, même l’analyse programmée est toujours disponible pour être réutilisée à une date ultérieure.

La fonction “Programmation” fonctionne en mode “headless” afin d’éviter toute interaction indésirable de la part de l’utilisateur. Dans le cas où plusieurs instances de crawl sont programmées et se chevauchent, Screaming Frog les exécute en même temps. Cette condition demande plus de ressources au système, les temps peuvent s’allonger et l’ordinateur peut ralentir.

Analyse vidéo programmée

Seo Spider Tab