¿Por qué solo se están rastreando unas pocas páginas de mi web?
Si solo se están rastreando 4-6 páginas de tu web (tu página principal, URL del sitemap y robots.txt), probablemente se deba a que nuestro bot no pueda encontrar enlaces internos en tu Home. A continuación, puedes encontrar posibles razones para este problema.
No hay enlaces internos salientes en la página principal o están incluidos en JavaScript. Nuestro bot todavía no puede analizar el contenido de JavaScript, por lo que si tu página de inicio tiene enlaces al resto de tu sitio ocultos en elementos de JavaScript, no podremos leerlos ni rastrear esas páginas.
Aunque no podemos rastrear contenido JavaScript, podemos rastrear el HTML de una página que tiene elementos JS y podemos revisar los parámetros de tus archivos JS y CSS con nuestras verificaciones de rendimiento.
En ambos casos, hay formas de asegurarte de que tu bot pueda rastrear tus páginas. Para hacerlo, necesitas cambiar la fuente de rastreo desde "web" a "sitemap" o "URL del archivo" en la configuración de tu campaña:
"Web" es la fuente predeterminada. Esto significa que vamos a rastrear tu web utilizando un algoritmo de búsqueda amplio y navegar a través de los enlaces que vemos en el código de tu página — empezando por la página principal.
Si eliges una de las otras opciones, vamos a rastrear los enlaces que encontremos en el sistemap o el archivo que subas.

Puedes inspeccionar tu Robots.txt en busca de comandos de disallow que impidan que rastreadores como el nuestro accedan a tu sitio web.
Si ves el siguiente código en la página principal de una web, no podemos index/follow los enlaces y tenemos el acceso bloqueado. O, una página que contenga al menos uno de los siguientes: "nofollow", "none", te llevará a un error de rastreo.
<meta name="robots" content="noindex, nofollow">
Puedes encontrar más información sobre estos errores en nuestro artículo de solución de problemas.

El límite para el resto de páginas de tu web es de 2 MB. En caso de que una página tenga un tamaño HTML demasiado grande, verás el siguiente error:

- What Issues Can Site Audit Identify?
- How many pages can I crawl in a Site Audit?
- ¿Cuánto tiempo se tarda en rastrear un sitio web? Parece que mi auditoría se ha bloqueado.
- How do I audit a subdomain?
- Can I manage the automatic Site Audit re-run schedule?
- Can I set up a custom re-crawl schedule?
- How is Site Health Score calculated in the Site Audit tool?
- How Does Site Audit Select Pages to Analyze for Core Web Vitals?
- How do you collect data to measure Core Web Vitals in Site Audit?
- Why is there a difference between GSC and Semrush Core Web Vitals data?
- ¿Por qué solo se están rastreando unas pocas páginas de mi web?
- ¿Por qué las páginas que funcionan en mi sitio web aparecen como rotas?
- Why can’t I find URLs from the Audit report on my website?
- Why does Semrush say I have duplicate content?
- Why does Semrush say I have an incorrect certificate?
- What are unoptimized anchors and how does Site Audit identify them?
- What do the Structured Data Markup Items in Site Audit Mean?
- Can I stop a current Site Audit crawl?
- How to Disable JS Rendering and Inspect a Page
- Configurar Auditoría del Sitio
- Solución de problemas de Auditoría del sitio
- Site Audit Overview Report
- Site Audit Thematic Reports
- Reviewing Your Site Audit Issues
- Site Audit Crawled Pages Report
- Site Audit Statistics
- Compare Crawls and Progress
- Exporting Site Audit Results
- Cómo optimizar la velocidad de rastreo de la Auditoría de tu sitio
- Cómo integrar la Auditoría del sitio con Zapier
- JS Impact Report