domingo, 3 de abril de 2011

Utiliza el robots.txt

Restringe el acceso a los buscadores donde no sea necesario, como a las páginas generadas por el propio buscador interno que suelen llenar de basura los resultados.

Para redireccionar este tipo de contenidos se utiliza el archivo robots.txt que es el que almacena la lista los directorios que no son accesibles para los rastreadores.

Debes utilizar un robots.txt para cada subdominio que tengas operativo en tu Web. También puedes utilizar otras técnicas para impedir que cierta información sea indexada por Google como, por ejemplo, añadir la meta etiqueta "NOINDEX" usar .htaccess o proteger directorios con contraseña.

No hay comentarios:

Publicar un comentario