CÓDIGO DE ESTADO

Hoja de Referencia de Análisis de Códigos de Estado: 4xx, 3xx y Errores de Servidor

Resumen de pestañas
Código de estado

La pestaña “Respuesta” muestra el estado HTTP y los códigos de estado de las URL internas y externas descubiertas durante el escaneo. Aquí tienes todas las columnas a tu disposición en detalle:

  • Dirección: La URL escaneada.
  • Contenido: identifica el tipo de contenido presente en la URL (texto/html, imagen/png, imagen/jpg, etc.).
  • Código de estado: muestra el código de respuesta HTTP (200, 3xx, 4xx, 5xx, sin respuesta).
  • Estado: devuelve la respuesta de la cabecera HTTP (OK si responde 200, No encontrado, Movido permanentemente, etc.).
  • Indexabilidad: define si la URL es indexable o no indexable.
  • Estado de indexabilidad: la razón por la que una URL no es indexable. Por ejemplo, si está canonizado a otra URL o ‘noindex’ o ‘Redirigido’.
  • Enlaces internos: corresponde al número de enlaces internos de la página. Los “enlaces internos” son enlaces que apuntan a una URL determinada desde recursos del mismo subdominio explorado.
  • Tiempo de respuesta: identifica el tiempo que se tarda en segundos en descargar la URL.
  • Redirigir URL: en caso de que la dirección URL redirija, esta columna incluye el destino de la URL.
  • Tipo de redirección: la columna puede contener
    • Redirección HTTP: redirección provocada por una cabecera HTTP.
    • Política HSTS: redireccionamiento provocado por una cabecera HSTS anterior.
    • Redirección JavaScript: provocada por la ejecución de JavaScript. Sólo puedes conseguirlo si has elegido el modo de escaneo de renderizado JavaScript.
    • Redirección Meta Refresh: activada por una etiqueta meta refresh en el HTML de la página.

Filtros de códigos de estado

En la pestaña “Código de respuesta” tienes disponibles los siguientes filtros:

Bloqueadas por Robots.txt: el filtro define todas las URL bloqueadas por el robots.txt del sitio que no permiten a la araña escanear esos recursos y, en consecuencia, no pueden indexarlos en los motores de búsqueda.

Pagina bloccata dal file Robotx.txt

Cada respuesta “0” en la columna Código de estado identifica la falta de respuesta HTTP del servidor, la columna Estado identifica el motivo. En el ejemplo anterior, el agente de usuario de la araña ha sido bloqueado por el robots.txt mediante la directiva “disallow”, y al estar bloqueado, no puede evaluar la respuesta HTTP.

  • Recurso bloqueado: todos los recursos bloqueados por el robots.txt de un sitio web, como imágenes, JavaScript y CSS. Este filtro sólo se rellena si tienes activada la representación de JavaScript. Recuerda que los recursos bloqueados aparecen en “Bloqueados por Robots.txt” si no se ha activado el modo Javascript en las configuraciones.
  • Sin respuesta: muestra datos sobre las URL que no envían una respuesta a la petición HTTP de la araña Seo. En el caso más común, corresponde a una URL escrita incorrectamente, tiempo de espera de la conexión, conexión rechazada o error de conexión. Con el estado “Sin respuesta”, la araña SEO tiene problemas para establecer conexiones o recibir respuestas. El problema podría ser el proxy.
No Response ottenuto da Screaming Frog durante la scansione di una pagina

El estado “Búsqueda DNS fallida” identifica que el sitio no se encontró en absoluto debido a un error en la entrada del dominio o a la falta de conexión a la red.

Problemi di Dns durante richiesta di scansione da parte del crawler

El aviso “Tiempo de espera de la conexión” identifica que Screaming Frog solicitó la respuesta HTTP al servidor pero no recibió respuesta en 20 segundos. Para remediar el problema, es posible aumentar el “Tiempo de espera de respuesta” desde las configuraciones o disminuir la velocidad de la araña (Bajar velocidad) para no cargar el servidor y darle más tiempo para responder.

Connessione in Timeout del server durante richiesta del crawler

Se devuelve un “Conexión denegada” cuando el intento de conexión de la araña Seo fue denegado en algún punto entre la máquina local y el sitio web. Los problemas más comunes están relacionados con la presencia de cortafuegos y el intento de bloquear un agente de usuario desconocido. Para solucionar este problema, te recomiendo que cambies el ‘user-agent’ de ‘Screaming Frog Seo Spider’ a ‘Chrome’.

Connessione rifiutata dal server
  • Éxito (2XX): la URL solicitada se ha recibido, comprendido, aceptado y procesado correctamente. Lo ideal es que todas las URL encontradas en un rastreo devuelvan un código de estado “200” con el estado “OK”, lo que es perfecto para rastrear e indexar contenidos.
  • Redirección (3XX): se ha encontrado una redirección como 301 o 302. Lo ideal es que cada enlace interno enlace a una respuesta con código de estado 200 y evitar enlaces que hagan que la araña tome medidas adicionales para salvaguardar el presupuesto de rastreo.
  • Redirección (JavaScript): se encontró una redirección del lado de JavaScript.
  • Redirección (Meta Refresh): se ha detectado una redirección a través de ‘Meta Refresh’.
  • Error de cliente (4xx): el filtro muestra los recursos para los que hubo un problema con la solicitud. Éstas pueden incluir respuestas como 400 Petición errónea, 403 Prohibido, 404 Página no encontrada, 410 Eliminado, 429 Demasiadas peticiones y otras. Los Errores de Cliente, como los 404, deben optimizarse para no malgastar el Presupuesto de Rastreo. Para ello, puedes modificar la fuente del enlace, eliminar estos enlaces, por ejemplo, con el archivo htaccess cambiando el código de estado a 410 o redirigirlos donde corresponda.
  • Error del servidor (5XX): El servidor no ha podido satisfacer una petición aparentemente válida. Esto puede incluir respuestas comunes como “500 Errores internos del servidor” y 503 “Servidor no disponible”. Un alto porcentaje de este error podría indicar un servidor estresado o una configuración incorrecta que requiere más investigación.
Ficha Seo Spider