Descargar un sitio web completo

–Descargar un sitio web completo
# wget -r www.lu2fffcom.ar

–Descargar un fichero con la posibilidad de parar la descargar y reanudar más tarde
# wget -c www.lu2fff.com.ar

–Comenzar una descarga a cualquier hora. En este caso empezaría a las 9 horas
# echo ‘wget -c www.lu2fff.com.ar’ | at 09:00

GNU Wget es una herramienta libre que permite la descarga de contenidos desde servidores web de una forma simple. Su nombre deriva de World Wide Web (w), y de «obtener» (en inglés get), esto quiere decir: obtener desde la WWW.

Actualmente soporta descargas mediante los protocolos HTTP, HTTPS y FTP.

Las opciones que podemos utilizar para descargar una web completa son

    -r = Descarga recursiva.
    
    Sin más parámetros se seguirán todos los enlaces para descargar de forma recursiva todo un site.
    
    -l # = Profundidad de descarga #
    
    (cuántos niveles de enlaces se deben seguir)
    
    -x = Crear estructura de directorios en el disco duro
    
    mapeando la estructura de carpetas del servidor web
    
    -np = (no-parent)
    
    al descargar de forma recursiva, no seguir los enlaces que lleven a niveles superiores al inicial en la estructura de carpetas
    
    - N = time-stamping.
    
    con esta opción conseguiremos una actualización incremental. Un fichero se marcará para descarga si se cumple alguna de 
    
    las siguientes condiciones:
     
    1. No tenemos ya un fichero local con el mismo nombre que el archivo a descargar y
     
    2. Existe un fichero con el mismo nombre, pero el archivo remoto fue modificado más recientemente que el local. Esta 
    
    información se conoce como time-stamps.

Poniéndolo todo junto. Veamos un ejemplo. Creamos una carpeta en la que queremos descargar la web y desde ella ejecutamos wget para realizar la descarga:

$ mkdir web
$ cd web
$ wget -r -l 6 -x -np -N http://www.lu2fff.com.ar

Dejar un comentario