CODE DE STATUT

Carte de référence pour l'analyse des codes d'état : erreurs 4xx, 3xx et erreurs de serveur

Aperçu des onglets
Code de statut

L’onglet “Réponse” indique l’état HTTP et les codes d’état des URL internes et externes découverts au cours de l’analyse. Voici en détail toutes les colonnes mises à votre disposition :

  • Adresse : L’URL analysée.
  • Contenu: identifie le type de contenu présent dans l’URL (text/html, image/png, image/jpg, etc.).
  • Code d’état: affiche le code de réponse HTTP (200, 3xx, 4xx, 5xx, pas de réponse).
  • Statut: renvoie la réponse de l’en-tête HTTP (OK s’il répond 200, Not Found, Moved Permanently, etc.)
  • Indexabilité: définit si l’URL est indexable ou non indexable.
  • Statut d’indexabilité: la raison pour laquelle une URL n’est pas indexable. Par exemple, s’il est canonisé vers une autre URL ou “noindex” ou “redirigé”.
  • Inlinks: correspond au nombre de liens internes sur la page. Les “inlinks internes” sont des liens pointant vers un URL donné à partir de ressources situées dans le même sous-domaine analysé.
  • Temps de réponse: identifie le temps nécessaire en secondes pour télécharger l’URL.
  • URL de redirection : si l’adresse URL est redirigée, cette colonne indique la destination de l’URL.
  • Type de redirection: la colonne peut contenir
    • Redirection HTTP : redirection déclenchée par un en-tête HTTP.
    • Politique HSTS : redirection causée par un en-tête HSTS précédent.
    • Redirection JavaScript : déclenchée par l’exécution de JavaScript. Cela n’est possible que si vous avez choisi le mode de balayage du rendu JavaScript.
    • Meta Refresh Redirect : déclenchée par une balise meta refresh dans le code HTML de la page.

Filtres de codes d’état

Dans l’onglet “Code de réponse”, vous disposez des filtres suivants :

Bloqué par Robots.txt: le filtre définit toutes les URL bloquées par le fichier robots.txt du site qui ne permet pas au spider d’analyser ces ressources et, par conséquent, ne peut pas les indexer sur les moteurs de recherche.

Pagina bloccata dal file Robotx.txt

Chaque réponse “0” dans la colonne Code d’état identifie l’absence de réponse HTTP de la part du serveur, la colonne État identifie la raison. Dans l’exemple ci-dessus, l’agent utilisateur du spider a été bloqué par le fichier robots.txt via la directive “disallow” et, étant bloqué, il ne peut pas évaluer la réponse HTTP.

  • Ressources bloquées: toutes les ressources bloquées par le fichier robots.txt d’un site web, telles que les images, JavaScript et CSS. Ce filtre ne s’affiche que si vous avez activé le rendu JavaScript. N’oubliez pas que les ressources bloquées apparaissent sous “Bloquées par Robots.txt” si le mode Javascript n’a pas été activé dans les configurations.
  • Pas de réponse: affiche des données sur les URL qui n’envoient pas de réponse à la requête HTTP du Seo Spider. Dans la plupart des cas, il s’agit d’une URL mal saisie, d’un délai de connexion, d’une connexion refusée ou d’une erreur de connexion. L’état “Pas de réponse” indique que le SEO Spider a des difficultés à établir des connexions ou à recevoir des réponses. Le problème pourrait venir du proxy.
No Response ottenuto da Screaming Frog durante la scansione di una pagina

L’état “DNS lookup failed” indique que le site n’a pas été trouvé du tout en raison d’une erreur d’entrée dans le domaine ou d’un manque de connexion au réseau.

Problemi di Dns durante richiesta di scansione da parte del crawler

L’avertissement ‘Connection Timeout’ indique que Screaming Frog a demandé la réponse HTTP au serveur mais n’a pas reçu de réponse dans les 20 secondes. Pour remédier au problème, il est possible d’augmenter le ‘Response Timeout’ à partir des configurations ou de diminuer la vitesse du spider (Lowering Speed) afin de ne pas charger le serveur et de lui donner plus de temps pour répondre.

Connessione in Timeout del server durante richiesta del crawler

Une “Connexion refusée” est renvoyée lorsque la tentative de connexion du Seo Spider a été refusée quelque part entre la machine locale et le site web. Les problèmes les plus courants sont liés à la présence de pare-feu et à la tentative de blocage d’un agent utilisateur inconnu. Pour résoudre ce problème, je vous recommande de changer le “user-agent” de “Screaming Frog Seo Spider” à “Chrome”.

Connessione rifiutata dal server
  • Succès (2XX) : l’URL demandé a été reçu, compris, accepté et traité avec succès. Idéalement, toutes les URL rencontrées lors d’un crawl devraient renvoyer un code de statut “200” avec un statut “OK”, ce qui est parfait pour le crawl et l’indexation de contenu.
  • Redirection (3XX): une redirection telle que 301 ou 302 a été rencontrée. Idéalement, chaque lien interne devrait renvoyer à une réponse avec le code de statut 200 et éviter les liens qui obligent le robot à prendre des mesures supplémentaires pour préserver le budget d’exploration.
  • Redirection (JavaScript) : une redirection côté JavaScript a été rencontrée.
  • Redirection (Meta Refresh): une redirection via ‘Meta Refresh’ a été détectée.
  • Erreur du client (4xx) : le filtre affiche les ressources pour lesquelles la demande a posé un problème. Il peut s’agir de réponses telles que 400 Bad Request, 403 Forbidden, 404 Page Not Found, 410 Removed, 429 Too Many Requests et autres. Les erreurs des clients telles que les 404 doivent être optimisées afin de ne pas gaspiller le budget d’exploration. Pour ce faire, vous pouvez modifier la source du lien, supprimer ces liens, par exemple à l’aide du fichier htaccess en modifiant le code de statut à 410 ou les rediriger le cas échéant.
  • Erreur de serveur (5XX): Le serveur n’a pas pu répondre à une demande apparemment valide. Il peut s’agir de réponses courantes telles que “500 Internal Server Errors” et 503 “Server Unavailable”. Un pourcentage élevé de cette erreur peut indiquer un serveur stressé ou une configuration incorrecte qui nécessite un examen plus approfondi.
Seo Spider Tab