Linux en español
robots.txt
Tutoriales

Robots.txt no permitir indexado de paginas con nginx

1 minuto de lectura

Si está administrando un entorno similar a una producción y desea evitar que los robots indiquen el tráfico, es habitual agregar un archivo robots.txt en la raíz de su sitio web para no permitirlo todo . En lugar de crear un archivo de texto plano de dos líneas, puede hacer esto solo con nginx:

location = /robots.txt {
  add_header  Content-Type  text/plain;
  return 200 "User-agent: *\nDisallow: /\n";
}

Agregue esto a su administración de configuración según lo determine el entorno, o agréguelo a mano, y no se preocupe más si Google podría comenzar a transmitir su sitio de desarrollo al mundo.

HIT Closer

5/5 - (1 voto)

Entradas relaccionadas

Cómo generar llaves ssh en linux

Diego García Cuesta

Cómo actualizar paquetes en Ubuntu/debian

Diego García Cuesta

¿Cómo instalar los drivers privados de Nvidia en Debian 9 Stretch?

Linux en Español

Cómo implementar el modulo PageSpeed en Nginx

Diego García Cuesta

Monitorear archivos y carpetas en tu Linux con incron && incrontab

Diego García Cuesta

CloudFail: Instalación y configuración

Diego García Cuesta

Este sitio web utiliza cookies para mejorar su experiencia. Asumiremos que está de acuerdo con esto, pero puede optar por no participar si lo desea. Aceptar Leer más

Política de privacidad y cookies