Google: No actualices dinámicamente los archivos Robots.txt varias veces al día

actualizar archivos robots google

El posicionamiento en buscadores depende de varios factores, y una correcta configuración de los archivos robots.txt es esencial para optimizar cómo los motores de búsqueda rastrean tu sitio. 

John Mueller de Google explicó que, dado que Google almacena en caché los archivos robots.txt durante aproximadamente 24 horas, no tiene mucho sentido actualizarlos dinámicamente varias veces al día para controlar el rastreo. Google no interpretará, por ejemplo, que no deseas que se rastree una página a las 7 de la mañana pero sí a las 9 de la mañana.

John Mueller escribió en Bluesky respondiendo a este post:

Pregunta:

Uno de nuestros técnicos nos preguntó si podían subir un archivo robots.txt por la mañana para bloquear a Googlebot y otro por la tarde para permitir que lo rastree, ya que el sitio web es extenso y pensaban que podría sobrecargar el servidor. ¿Crees que sería una buena técnica?

(Obviamente, la velocidad de rastreo de Googlebot se adapta a lo bien que responde el servidor, pero me ha parecido una pregunta interesante para hacértela) ¡Gracias! 

subir archivo robots diariamete

Respuesta:

Es una mala idea porque el archivo robots.txt puede almacenarse en caché hasta 24 horas ( https://developers.google.com/search/docs/…). No recomendamos cambiarlo de forma dinámica a lo largo de un día. En lugar de ello, utiliza la opción 503/429 cuando el rastreo sea excesivo. 

Texto traducido y adaptado de: Google: Don’t Dynamically Update Robots.txt File Multiple Times Per Day

¿Estás interesado en posicionarte orgánicamente en Google? En Capybara SEO podemos ayudarte con diferentes estrategias para impulsar tu visibilidad en la web, aumentar el tráfico de tu sitio y mejorar tu ranking en los resultados de búsqueda. ¡Contáctanos ahora y lleva tu estrategia de SEO al siguiente nivel!