miércoles, 19 de septiembre de 2007

Como descargar una Web completa en linux

Hace años, cuando usaba windows... bueno no hace tanto... vale... pero me gustaría que fuera más tiempo, usaba Teleport para descargarme toda una web entera, ya se sabe, para tener todos lo recursos de una web en mi PC y poder navegar por ella sin tener que estar conectado.

Pues nada que me puse manos a la obra en Linux para ver como podía hacer lo mismo. Primero encontré GetLeft, pero nada, no me gusta su entorno, es poco amigable y nada serie. No me queda nada claro lo que está haciendo. Se trata de un proyecto escrito en tcl/tk y que a mi sinceramente me parece que aún le queda mucho, pero eso si, está en entorno gráfico. De todas formas gracias a Andrés Garcia por compartir este código con el resto de usuarios de Linux.


Por el contrario he encontrado otra manera de hacer lo mismo desde la consola, a la que reconozco tener mucho cariño. La manera es usando el comando wget. Para bajarte toda una web entera basta con usar:

wget -r -k http://www.detodoenventa.com

Si por el contrario quiero bajar hasta un nivel concreto, lo hago con la opcion -l:

wget -r -k -l 2 http://www.detodoenventa.com

descargará 2 niveles de la estructura de la web. Y con la opción -H también descargaría las webs linkadas en la que quiero descargarme, no solo el dominio detodoenventa.com:

wget -r -k -H http://www.detodoenventa.com

Con wget --help tendrás tambien una clara y extensa ayuda sobre el comando.

Ahora imagina que pones esto dentro del cron, y te actualizas las web que quieras cada x tiempo de forma automática, ¿A que mola?

Saludos

No hay comentarios: