Nu doriți doar un articol sau o imagine individuală, dorițiîntreg site web. Care este cel mai simplu mod de a sifoniza totul?
Sesiunea de întrebări și răspunsuri din ziua de astăzi vine de la amabilitatea SuperUser - o subdiviziune a Stack Exchange, o grupare bazată pe comunitate a site-urilor Q & A.
Imaginea este disponibilă ca tapet la GoodFon.
Cititorul de super-utilizare Joe are o cerere simplă:
Cum pot descărca toate paginile de pe un site web?
Orice platformă este bine.
Fiecare pagină, fără excepție. Joe e pe o misiune.
Contribuitorul SuperUser Axxmasterr oferă o recomandare de aplicație:
http://www.httrack.com/
HTTRACK funcționează ca un campion pentru copierea conținutului unui întreg site. Acest instrument poate chiar să ia piesele necesare pentru a face un site web cu conținut activ de cod să lucreze offline. Sunt uimit de lucrurile pe care le poate replica offline.
Acest program va face tot ce ai nevoie de el.
Vanatoare placuta!
Putem recompune în mod serios HTTRACK. Este o aplicație matură care face treaba. Ce este vorba de arhivari pe platforme non-Windows? Un alt contribuitor, Jonik, sugerează un alt instrument matur și puternic:
Wget este un instrument clasic de linie de comandă pentru acest tip de sarcină. Acesta vine cu majoritatea sistemelor Unix / Linux și îl puteți obține și pentru Windows (mai nou 1.13.4 disponibil aici).
Ai face ceva de genul:
wget -r --no-părinte http://site.com/songs/
Pentru mai multe detalii, consultați Manualul Wget și exemplele sale sau aruncați o privire la acestea:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Aveți ceva de adăugat la explicație? Sunați în comentariile. Doriți să citiți mai multe răspunsuri de la alți utilizatori de tehnologie Stack Exchange? Check out discuția completă aici.