Aspirer un site web avec wget

Posted by & filed under Linux.

Vous souhaitez capturer un site web pour une consulation locale ? Il existe des programmes spécialisées comme HTTtrack mais wget peut largement s’en charger.

Le site sera téléchargé dans le répertoire courant. Il faut donc se diriger vers le répertoire où l’on souhaite sauvegarder le site.


wget -r -k -np -T 10 -t 3 http://www.monsiteamoi/une-sous-page/

-r : signifie que le téléchargement sera récursif (il récupère les liens et se dirige vers eux)

-k : permet de reconstituer le site localement  (les liens sont modifié pour pointer localement)

-np empêche de remonter dans le répertoire parent.

-T 10 : Time connection. Le temps max en seconde pour aspirer un lien. Quand cette option est omise, un lien difficilement accessible peut ralentir considérablement l’aspiration du site.

-t 3 : nombre de tentative de connexion si il y a erreur 404 (pas de lien)

Leave a Reply