Fórum Root.cz

Ostatní => /dev/null => Téma založeno: scientific 17. 08. 2020, 22:25:24

Název: Stažení stránky wget/curl
Přispěvatel: scientific 17. 08. 2020, 22:25:24
Ahoj všem,

prosím o radu. Je web, ze kterého bych chtěl pro soukromé účely analýzy stáhnout data za cca. 30 stránek a nechce se mi to dělat ručně. Navís nestačí základní stažení zdrojového kodu, je tam nějaký AJAX. Data ve zdrojovém kodu [CTRL] + u nejsou, pouze skripty, které data vykreslují na straně klienta až v prohlížeči.

Ruční postup je takový:

Automatický postup:

Myslíte, že je to nějak řešitelné, možná nějaký emulátor prohlížeče nebo nodeJS, napadá Vás něco?

Díky moc za každý nápad.
Název: Re:Stažení stránky wget/curl
Přispěvatel: scientific 17. 08. 2020, 22:37:37
Omlouvám se všem, špatně jsem to pochopil, není to AJAX, normálně to v tom zdrojovém kódu je asi všechno.

Prosím tohle téma komplet smazat, ať to nemate nové čtenáře a nesnaží se třeba nad tím ZBYTEČNĚ přemýšlet.
Název: Re:Stažení stránky wget/curl
Přispěvatel: _Jenda 17. 08. 2020, 22:39:08
To je jedno, obecně by se to řešilo 2 způsoby: 1) odposlechnout (např. Burp Proxy) jak to ta data tahá; 2) přistoupit k tomu jako k blackboxu a naskriptovat to např. přes Selenium.