–Descargar un sitio web completo
# wget -r www.lu2fffcom.ar
–Descargar un fichero con la posibilidad de parar la descargar y reanudar más tarde
# wget -c www.lu2fff.com.ar
–Comenzar una descarga a cualquier hora. En este caso empezaría a las 9 horas
# echo ‘wget -c www.lu2fff.com.ar’ | at 09:00
GNU Wget es una herramienta libre que permite la descarga de contenidos desde servidores web de una forma simple. Su nombre deriva de World Wide Web (w), y de «obtener» (en inglés get), esto quiere decir: obtener desde la WWW.
Actualmente soporta descargas mediante los protocolos HTTP, HTTPS y FTP.
Las opciones que podemos utilizar para descargar una web completa son
-r = Descarga recursiva. Sin más parámetros se seguirán todos los enlaces para descargar de forma recursiva todo un site. -l # = Profundidad de descarga # (cuántos niveles de enlaces se deben seguir) -x = Crear estructura de directorios en el disco duro mapeando la estructura de carpetas del servidor web -np = (no-parent) al descargar de forma recursiva, no seguir los enlaces que lleven a niveles superiores al inicial en la estructura de carpetas - N = time-stamping. con esta opción conseguiremos una actualización incremental. Un fichero se marcará para descarga si se cumple alguna de las siguientes condiciones: 1. No tenemos ya un fichero local con el mismo nombre que el archivo a descargar y 2. Existe un fichero con el mismo nombre, pero el archivo remoto fue modificado más recientemente que el local. Esta información se conoce como time-stamps.
Poniéndolo todo junto. Veamos un ejemplo. Creamos una carpeta en la que queremos descargar la web y desde ella ejecutamos wget para realizar la descarga:
$ mkdir web $ cd web $ wget -r -l 6 -x -np -N http://www.lu2fff.com.ar