Aspirer un site web avec wget
Page 1 sur 1
Aspirer un site web avec wget
Vous voulez sauvegarder votre site sur votre disque dur ou un site vous plait et vous voulez le copier dans so,n intégralité pour l'imprimer ou le lire hors ligne. Une commande qui existe sur ubuntu le fait très simplement, il s'agit de wget. Ce wget qui est maintenant porté sur windows et qui est un outil merveilleux.
Il suffit de taper sur la ligne de commande wget suivi de l'adresse internet de la cible et celle ci est ramenée. Vous gagnerez cependant à le faire de manière récursive en ajoutant « -r » c'est à dire wget -r afin que tout le site soit aspiré mais attention à ne pas le faire aux heures de pointe sinon le serveur sera mécontent et son webmaster encore plus.
Avant de lancer la commande pensez a créer un repertoire approprié pour le site « mkdir nomdusite » puis mettez vos dans ce repertoire avec la commande « cd nomdusite » afin que les fichiers ne viennent pas s'entasser dans le repertorie ou vous etes et le polluer.
Ceci fait lancez la commande wget comme suit, avec les arguments:
wget -r -k -np -T 10 -t 1 http://www.monsite.com (il n y a pas de code monsite.com n'existe pas donc inutile de cliquer c'est juste pour l'exemple).
-r : pour la récursivité. Tous les liens et leurs contenus seront téléchargés.
-k : pour la reconstruction des liens localement.
-np: empêche de remonter dans le répertoire parent et créer des surprises.
-T xx : xx en secondes. pour aspirer un lien. Si le temps imparti est depassé passe a un autre. Evite qu'un lien lent ne ralentisse l'ensemble de l'opération.
-t x : x nombre de tentatives de connexion .
Il suffit de taper sur la ligne de commande wget suivi de l'adresse internet de la cible et celle ci est ramenée. Vous gagnerez cependant à le faire de manière récursive en ajoutant « -r » c'est à dire wget -r afin que tout le site soit aspiré mais attention à ne pas le faire aux heures de pointe sinon le serveur sera mécontent et son webmaster encore plus.
Avant de lancer la commande pensez a créer un repertoire approprié pour le site « mkdir nomdusite » puis mettez vos dans ce repertoire avec la commande « cd nomdusite » afin que les fichiers ne viennent pas s'entasser dans le repertorie ou vous etes et le polluer.
Ceci fait lancez la commande wget comme suit, avec les arguments:
wget -r -k -np -T 10 -t 1 http://www.monsite.com (il n y a pas de code monsite.com n'existe pas donc inutile de cliquer c'est juste pour l'exemple).
-r : pour la récursivité. Tous les liens et leurs contenus seront téléchargés.
-k : pour la reconstruction des liens localement.
-np: empêche de remonter dans le répertoire parent et créer des surprises.
-T xx : xx en secondes. pour aspirer un lien. Si le temps imparti est depassé passe a un autre. Evite qu'un lien lent ne ralentisse l'ensemble de l'opération.
-t x : x nombre de tentatives de connexion .
Page 1 sur 1
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum
|
|