msr.cooper wrote:Siccome il server va a singhiozzo e non riusciamo a capire perché, e per avere una copia aggiornata del sito
Scusate,vedo solo ora questo thread anche se mi ero accorto dei due fermi nei giorni scorsi (pensavo fosse qualcosa sul link internazionale) ma ... se non esiste una policy di backup da parte dei gestori, non sarebbe il caso di organizzarne una con tool piu' professionali ? Purtroppo o per fortuna quelli che conosco io girano su Linux.
Per fare una cosa a livello ci utente mi pare che entrambi i tool
wget e
curl hanno un modo da crawler ricorsivo che consente di fare una copia di un sito o parte di esso (li ho usati, ma dovrei consultare i miei appunti per ricordarmi quale dei due, p.es. per un pezzo di un sottosito IAU/NASA, per analizzare il sito del mio ente, per farmi una copia offline dei tutorial di java e ... per farmi una copia offline dello stagniweb quella volta che sono andato in ospedale e me lo sono letto con calma).
Per fare un mirror vero e proprio da aggiornare periodicamente la cosa da usare e'
rsync ma questa richiede la collaborazione dei gestori, dato che rsync copia non da un URL ma o da una origine fisica (p.es. dischi locali remoti in NFS, e questo non richiede nulla che giri dal lato origine ... io lo uso per i backup notturni sul mio secondo disco ) o da una origine logica (ma in questo caso serve che sia configurato li' un server rsync con i permessi ristretti al branch voluto). rysnc ha il vantaggio che copia in formato compresso (ha anche una modalita' di backup, io non lo ho mai usato in quel modo ma dei colleghi si), che una volta inizializzato copia solo cio' che e' stato modificato o che e' nuovo, con un protocollo molto efficiente.
Se servono altre info contattatemi in MP.