Podle toho, o co presne jde. Nevim presne, jaky jeucel, napisu par moznosti.
Pokud potrebujes jednu stranku ulozit ne jen thml, ale vse, co se strankou souvisi (obrazky, skripty, a pod.), tak nektere prohlizece umi format mht - tedy webovy archiv, jediny soubor. Stranka se ulozi jako jediny soubor vc. vsech souboru, co k ni patri. Mela by to umet Opera, asi i Chrome, Mozilla vc. TorBrowser spis ne, internet explorer ne.
Dalsi moznosti je nakopirovat obsah html stranky (i vice stranek za sebou) do nejakeho office dokumentu (World, LibreOffice). Problem je, ze dokument si ulozi jen odkazy na soubory a a obrazky pak po otevreni stahuje z internetu (napodobne stranka html-only v nekterych prohlizecich).
To je roziko napr. pro uzivatele TORU. Offce doccument prez TOR pochopiteln nejede. Office dokument (World, Libbre Office, WorldPad) lze pak prevest do PDF i s vhodne zvolenou kompresi obrazku (nektere office dokumenty si JPG dovnitr ukladaji jako BMP a soubor pak naroste).
Dalsi moznosti je ve FrontPage editovat webovou stranku a postupne jednotlive dalsi stranky prikopirovavat. Pak jednu velkou html stranku ulozis, otevres v prohlizeci a stranka se zobrazi, satahne si z webu potrebne soubory (uvnitr html stranky jsou ulozeny jen odkazy). A v prohlizeci pak z teto stranky muzes udelat ten mht archiv. Podobne veci a vubec praci z Widlema jsem uz dlouho nedelal, tedy nevim jak dnes. Navic Frontpage existoval jen do verze OfficeXP, pak jej tusim nahradilo neco jineho, nevim ted co. A v Linuxu na to bude zase jinej program.
Ctvrtou moznosti je stranky stahnout napr pomoci wget, navolit nejak, aby to stahlo vse, co ke strance, ci vice strankam nalezi (tusim, ze prikaz je wget -p URL ), a pak to nejakym archovatorem zabalit, napr. 7z. Nektere starsi kompresory (TAR, ZIP)mohou mit problem z kodovanim Unicode v nazvech souboru. Navic 7z i novejsi RAR, ZIP tusim tvori Solid Archive, takze vyhledava mezisouborove podobnosti.
Wget umi stahovat i rekurzivne, vcetne stazeni (miroring) celych webu . Mnoho webu je ale dnes dynamickych, coz znamena kvanta dat, casu, i CPU.
http://www.cetoraz.info/pavel/index.shtml?show=1355,wget---stahujme-kvalitne---Podrobny-navod-s-prikladyTakze pokud chces sosnout cast webu, nebo cely web, jde to i takto. Odkazy lze konvertovat pro offline prohlizeni. Pravdou je, ze u slozitejsich nazvu stranek nazvy a odkazy wget tolik nedava. Obrazky patrici ke strankam, ale nachazejici se mimo web, to wget nestahne (to umi napr. windowsacky Teleport).
Dalsim programem na stahovani celeho webu je hthhptrack (nezkousel jsem).