Linux en español
robots.txt
Tutoriales

Robots.txt no permitir indexado de paginas con nginx

1 minuto de lectura

Si está administrando un entorno similar a una producción y desea evitar que los robots indiquen el tráfico, es habitual agregar un archivo robots.txt en la raíz de su sitio web para no permitirlo todo . En lugar de crear un archivo de texto plano de dos líneas, puede hacer esto solo con nginx:

location = /robots.txt {
  add_header  Content-Type  text/plain;
  return 200 "User-agent: *\nDisallow: /\n";
}

Agregue esto a su administración de configuración según lo determine el entorno, o agréguelo a mano, y no se preocupe más si Google podría comenzar a transmitir su sitio de desarrollo al mundo.

HIT Closer

5/5 - (1 voto)

Entradas relaccionadas

Qué es tearing y cómo deshacerse de él en GNU/Linux

Linux en Español

Reiniciar tarjeta de red en linux

Diego García Cuesta

Cómo instalar MySQL en Ubuntu

Diego García Cuesta

Las VPN cambiarán para siempre con la llegada de WireGuard a Linux

Linux en Español

Cómo configurar un servidor web en Amazon Web Services

Diego García Cuesta

Ejecutar comandos por un tiempo limitado en Linux

Diego García Cuesta

Este sitio web utiliza cookies para mejorar su experiencia. Asumiremos que está de acuerdo con esto, pero puede optar por no participar si lo desea. Aceptar Leer más

Política de privacidad y cookies