Una araña (spider, robot, bot ...) es un software que utilizan los buscadores para encontrar e indexar el contenido de las páginas web. Este robot ingresa a la página principal, luego carga la página y sigue los enlaces que hay en ella.
Saltando de una página a otra y de un sitio a otro va navegando, y guarda en su base de datos toda la información que va encontrando.
La mayoría de los robots tienen la capacidad de navegar por todos los enlaces de una página web e indexan el contenido de cada una de las páginas que componen un sitio.
Hola compañeros aqui les dejo algo de informacion del funcionamiento de un buscador. Espero sirva de apoyo para complementar la clase de hoy.
¿Cómo se debe indicar al robot qué debe indexar y qué no?
¿Cómo pueden indexar mi web los buscadores?
¿Qué es Optimización Páginas Web?
La clave del Exito en la optimización de sitios web
jueves, 28 de octubre de 2010
miércoles, 27 de octubre de 2010
Tutorial de Django
Hola compañeros aqui les dejo un pequeño tutorial de Django, algo de util para poder realizar nuestro proyecto final.
Uno de los "framework" más famosos o populares que se ha dado a conocer ha sido Ruby On Rails. ¿Qué aporta esta herramienta frente a otras alternativas más conocidas y establecidas?.
Lo más novedoso era la prevalencia de la convención frente a la configuración. En vez de andar editando ficheros .xml (como en las herramientas J2EE) se establecía una estructura de directorios estándar para la aplicación, no era necesario configurar mapeos, plantillas, etc.
Rails también abstrae completamente la interacción con bases de datos relacionales: el sistema es capaz de "adivinar" los modelos e inferir los objetos que intervienen en la aplicación con sólo examinar la definición de tablas en el sistema relacional. Hay un objeto, "ActiveRecord" que es el que relaciona o hace de puente entre el sistema relacional y el sistema orientado a objetos.
Saludos.
viernes, 15 de octubre de 2010
Suscribirse a:
Entradas (Atom)