En general, la resposta és amb una aranya web (o web crawler): un programa que es dedica a recorrer els enllaços d'una pàgina web de forma recursiva fins a un determinat nivell de profunditat.
Ara bé, a Linux hi ha una petita aplicació de línia de comandes que permet fer exactament això mateix: wget
Per a descarregar una web "sencera" podem fer-ho amb:
wget -r -l 0 http://www.undomini.cat/
Si fem wget --help a un terminal obtenim la llista d'opcions. En particular es veu que:
Descàrrega recursiva:
-r, --recursive baixa de forma recursiva.
-l, --level=NOMBRE nivell màxim de recursió (inf o 0 per infinit)Al manual de GNU Wget trobem tota la informació sobre aquest programa.
Cap comentari:
Publica un comentari a l'entrada