Robots.txt : Todo lo que deberia saber | Emezeta:
"El fichero robots.txt es un archivo de texto que dicta unas recomendaciones para que todos los crawlers y robots de buscadores cumplan (¡ojo! recomendaciones, no obligaciones). Pero comencemos por el principio.
Un crawler es un robot de una entidad (generalmente buscadores) que acceden a las páginas web de un sitio para buscar información en ella, añadirla en los buscadores, etc. También son llamados spiders, arañas, bots o indexadores."
06 septiembre, 2009
Suscribirse a:
Comentarios de la entrada (Atom)
No hay comentarios.:
Publicar un comentario