Robots.txt no permitir indexado de paginas con nginx

1 minuto de lectura

Si está administrando un entorno similar a una producción y desea evitar que los robots indiquen el tráfico, es habitual agregar un archivo robots.txt en la raíz de su sitio web para no permitirlo todo . En lugar de crear un archivo de texto plano de dos líneas, puede hacer esto solo con nginx:

location = /robots.txt {
  add_header  Content-Type  text/plain;
  return 200 "User-agent: *\nDisallow: /\n";
}

Agregue esto a su administración de configuración según lo determine el entorno, o agréguelo a mano, y no se preocupe más si Google podría comenzar a transmitir su sitio de desarrollo al mundo.

5/5 - (1 voto)
Diego García Cuesta: Técnico superior en administración de sistemas informáticos y redes. Autodidacta, amante de la tecnología y el deporte. En mis tiempos libres investigo sobre los últimos avances tecnológicos.
Related Post