Existuje jedna moznost - teoreticka.
Nejhorsi na vykradani webu je vyhledavani relevantnich URL.
Kdyz bude cely web fungovat principielne jako Google, kde bude v podstate jeden search box ktery AJAXem bude kontrolovat, co uzivatel zadal (nebude mu napovidat) a pak vygeneruje jednorazovou url pro kazdy dokument, tak toto se bude blbe vykradat.
Diky za podnetne reakce. Plan podobneho typu mam. Jednak ve velmi dlouhych URL (mimo adresare, vse bude flat) budou ulozene ruzne udaje, jednak sifrovane pro WWW server, ale take pro vlastni javascript.
Za druhe cely web bude hodne "kosaty", takze kdyz se to vezme nejakym wget-like nastrojem, vyjde z toho obrovske mnozstvi dat, vetsi nez uzivatel bude potrebovat (ovsem nijak jej to nebude omezovat pri normalni praci). Prirovname-li to k nesifrovanemu systemu ulic v nejake online mape, mohla by URL byt ve tvaru /ulice1-ulice2/ (uzivatel kliknul z ulice1 na ulice2). Takze misto n stranek pro n dat jich je n*(n-1), levely jde zanorovat libovolne hluboko. Uzivatel to nijak nepozna, tedy kdyz to nebude sosat cele - misto gigabajtu dat bude mit terabajty/petabajty.
A posledni veci s timto spojenou je, ze pri detekci sosani cloveka zavedeme do nejake nekoncici smycky nesmyslu + lehce poskodime data.
Jak tu nekdo zminoval ten llvm, to je zbytecny overkill. V planu je udelat uplne jednoduchy obfuskator a randomizator JS kodu. Vlastni nastroj na toto bude trivialni, pouze bude nutne pri kodovani javascriptu dodrzet nejake omezujici podminky.
Predstavte si, ze jediny kod mimo randomizovane funkce bude nastaveni nejakeho eventu (onLoad), zbytek uz poresi ruzne obfuskovane a zprehazene funkce. Ano, spustit to samozrejme pujde, ale vysledkem budou opet ruzne nahodne pojmenovane promenne dostupne pres ruzne nahodne pojmenovane fce. Pro uzivatele to bude transparentni a procesor to prilis nezatizi, vydolovat z toho neco vic nez co je videt ve strance bude ale dle meho nazoru dost obtizne (nebude pevny bod za ktery se chytit).