Skip to content

DAVEMCNAB.INFO

Il sito Web di Dave McNam. Scozzese Vivere in Italia. Adoro viaggiare e spero che il mio sito sia interessante!

SCARICARE SITO WGET


    Ogni tanto, può risultare utile, scaricare un intero sito web sul proprio computer, per renderne disponibile la consultazione offline. Scaricare un. ecco come scaricare un Sito nel Computer con Linux usando da console il comando wget con l'opzione mirror per copiare internamente un sito sul computer. Usiamo il terminale del Pinguino per scaricare completamente in locale un sito web da consultare offline in qualsiasi momento. Esiste un programma, incluso in tutte le distribuzioni Linux, che è in grado di scaricare interi siti internet. Il comando si chiama wget e può. Supponiamo che abbiate il bisogno di scaricare un intero sito per poi navigare offline, però non volete installare ulteriori programmi.

    Nome: re sito wget
    Formato:Fichier D’archive
    Sistemi operativi: Android. Windows XP/7/10. iOS. MacOS.
    Licenza:Gratuito (* Per uso personale)
    Dimensione del file:60.48 MB

    Rifiuto Accetto. Questo articolo è stato pubblicato più di un anno fa, potrebbero esserci stati sviluppi. Ti preghiamo di tenerne conto. Wget è un download manager open source, incluso nelle principali distribuzioni Linux. Uso di wget per scaricare un intero sito, ma limitare a 3 il livello di profondità :. Purtroppo la gui non ha tutte queste opzioni da configurare, risulta essere un semplice download manager, il programma vero e proprio, invece, è pieno zeppo di configurazioni per tutte le esigenze.

    È quindi necessario rendere ancora più complessa la nostra linea di comando, imponendo delle limitazioni al numero di file da scaricare.

    Limitiamoci Prima di proseguire, affrontando l'argomento limitazioni, conviene chiarire bene il significato dei termini "livello" e "profondità". Facendo riferimento alla prima figura, potete immaginare l'url come un indicatore che si riferisce ad un nodo specifico dell'albero.

    Adesso guardiamo l'immagine in questra pagina, dove al centro è stato messo tale nodo: da quest'ultimo dipartono alcuni rami che rappresentano collegamenti ad altrettanti nodi dell'albero, e che rappresentano il "vicinato". I nodi del vicinato sono caratterizzati dal fatto che sono tutti raggiungibili da quello centrale attraversando un solo ramo e per questo si dice che si trovano nel "primo livello".

    La "profondità" di attraversamento è il numero massimo di livelli che si possono attraversare per raggiungere un nodo periferico a partire da un nodo centrale. Il concetto di profondità di livello è centrale in wget, perché rappresenta il fattore primario in grado di limitare l'attraversamento di un sito. Facciamo un esempio: se aggiungiamo alla precedente stringa il valore -l 1 wget -Sr -l 1 www.

    Ma davvero vogliamo scaricare tutto? Potremmo anche incorrere in file inutili, come contatori, file di database o altri documenti, di cui non ci interessa nulla e che occupano solo banda e allungano i tempo di download. Per evitare un tale spreco, possiamo fornire a wget una "accept list", o al contrario una "reject list", nella quale possiamo specificare le estensioni dei file che intendiamo scaricare.

    Se, ad esempio, volessimo prelevare tutti i file grafici in formato gif e jpg, collegati in primo livello con il documento doc In questo caso, ci conviene fornire una lista di domini sui quali è consentito prelevare file.

    Linux: Come scaricare un sito web per consultarlo offline

    Introduciamo quindi l'opzione -D che indica il "domain acceptance", ovvero i domini dai quali è accettato il download, limitando il dowload dei file collegati al nostro documento, ai soli domini funnystuff.

    Oltre che per livelli e per domini, c'è un terzo limite da considerare, che consente di specificare un quota, ovvero una dimensione massima oltre il quale non verrà scaricato più nulla. Non solo, è anche possibile fare in modo che questa operazione non influisca negativamente sulle prestazioni del collegamento ad internet, grazie alla possibilità di diluire nel tempo il download.

    Possiamo, volendo, preparare un file di testo o html, contenente tutte le url da scaricare, passandolo poi al programma grazie allo switch -i, oppure evitare che l'hostname venga utilizzato per creare la directory che conterrà il sito, o ancora, possiamo tagliare dall'albero che ricreeremo un certo numero di direcotry --cut-dirs Ad esempio, il comando: wget -r -l 1 -A gif,jpg www.

    Infine, cosa fare se un donwload si interrompe per qualsiasi ragione? Senza bisogno di usare getright, provate l'opzione -c e riprenderete li dove vi eravate fermati senza perdere tempo a prelevare di nuovo tutto.

    Ultimo problema che vogliamo affrontare: diciamo che vogliamo scaricare un sito molto grosso, e che le operazioni dureranno almeno un giorno.

    Scaricare con Wget | il blog di lino80

    Come fare per non tenere occupata una shell per 24 ore? Anche qui le cose non sono troppo difficili; basta usare aprire la stringa di comando con nohup e chiudere la serie delle opzioni con un -b background e vi ritroverete anche con un file di log.

    Facciamo un esempio: voglio scaricare tutto il sito di www. In questo caso, per essere sicuro, introduciamo anche l'opzione -m mirror che consentirà di creare una copia fedele del sito e l'opzione -t tentativi seguita da 0, per consentire al programma di tentare un numero infinito di volte l'operazione di mirroring, nel caso questa dovesse interrompersi per qualche ragione: nohup wget -m -t0 -b www.

    I comandi per scaricare con wget.

    Per i siti anonimi non c'è problema: wget tenterà di default di collegarvisi passando dei dati di login anonimi standard. Per le aree protette da login e password particolari vi è il problema di passare sulla linea di comando i dati relativi all'account che si vuole utilizzare per accedere al sito.

    In questo caso, ipotizzando di volere accedere al server ftp ftp. Quelle che noi abbiamo visto sono solo alcune delle decine e decine di opzioni che fanno di wget uno dei programmi più versatili per internet.

    In relazione:SCARICA ERRE

    Come posso fare? Se lo copio solamente con ftp i link nel nuovo dominio rimarranno quelli del vecchio. Di solito i siti web non usano dei riferimenti assoluti ma relativi, cioè nelle loro pagine html contengono links relativi alla prossima pagina es.

    Il tuo indirizzo email non sarà pubblicato. Sito web:.

    Ricevi un avviso se ci sono nuovi commenti. Oppure iscriviti senza commentare. Realizzato con WordPress e Tema Graphene. Trick IT trucchi per il mondo IT.

    Grazie e cordiali saluti. Lascia un commento Annulla risposta Il tuo indirizzo email non sarà pubblicato. I più letti degli ultimi 30 gg Excel : rimuovere password protezione foglio 2. Tag aggiornamento android antivirus app as cancellare conversione DB2 disabilitare disco dns email errore files IBMi internet iOS iphone iSeries linux Mac malware microsoft office online OS X patch php problemi programmi rete rimozione server sicurezza smartphone tablet test trasferire update verifica web windows windows 7 windows 10 windowsupdate.