@Pavko
"Pro mě je deduplikace nepoužitelná, když na 500 GB dat nestačí ani 24 GB RAM"
pokud se to chova takhle tak tam mas neco zatracene spatne.
Obecne se doporucuje:
"If you plan to use ZFS deduplication, ensure you have at least 5 GB RAM per TB of storage to be deduplicated."
viz
http://doc.freenas.org/9.3/freenas_intro.html#ramdale "The recommended minimum (mysleno pro FreeNAS system) is 8 GB of RAM" viz URL vyse.
Myslim ze by sis mel pozorne procist tenhle manual co napsali primo vyvojari co delaj FreeNAS/ZFS abys nemarnil cas zbytecnymi experimenty......
Taky je dobry si procist tohle
https://forum.root.cz/index.php?topic=12850.60 vlakno kde zdejsi pleenum ZFS/dedup probiralo

)
Pokud te ZFS problematika zajima vic skoukni tohle video:
http://www.jupiterbroadcasting.com/116766/for-the-love-of-zfs-bsd-now-203/ Krome exkursu do historie ZFS tam probiraj prave i DEDUP a posledni napady ohledne jeho vylepseni, napr Intel chce rozhazovat files podle typu a vhodnosti na komprimaci/dedup na ruzny datasety, dale "zastropovani" velikosti DDT (=DeDuplicatinTable) ci jeji prehozeni na NVMe
https://en.wikipedia.org/wiki/NVM_Express ktery se rychlosti priblizuje RAM ale cenove/kapacitne je stravitelnejsi, indexovani "pozmenenych bloku", megabloky atd atd
Vsechny dily tohodle podcastu se v podstate nezabyvaj nicim jinym nez problematiku *BSD a ZFS:
http://www.jupiterbroadcasting.com/show/bsdnow/page/2/@trubicoid2
"podle vypoctu oraklu staci numirovi 0.5GB ram na deduplikaci"
Nejsem si vubec jistej jestli vypocty pro Oracle system maj nejakou relevanci pro openZFS....?
ZFS u obou sice vychazi ze stejnyho zakladu od Sun, ale uz davno se rozdelil a podle openZFS devs je pres polovina kodu uz jina nez u Oraclu, dukazem ceho budiz ze Oracle zatim neodtahl lidi z iXSystems k soudu prestoze urcite diky open source povaze ZFS kodu z dilny iXSystems je soudruzi od Oraclu pravidelne procitaji...... uz jen pro "inspiraci" ohledne novych napadu ;o)
@LolPhirae
RE: dedup--"Nic. Je to prostě nepoužitelné na normálním hardwaru."
Ano- to je spravna odpoved!

))))
https://www.youtube.com/watch?v=QEsVL9Lr80k#t=6m1s Dedup ale je myslen spise jako enterprise feature (i kdyz i tam to drhne) pro servery ktery u iXsystems davaj dohromady a ktery maj >128GB RAM.....
@Miroslav Silhavy
"Jako minimum vůbec pro ZFS se doporučují 4 GB RAM + 1 GB na každý 1 TB dat."
To je SPATNA ODPOVED - viz vyse ;o)
@KIt
"Možná by se dnes pro tento účel hodil spíše BtrFS."
Ne nehodil- BtrS rozhodne neni "production ready" a lidi co diky nemu prisli o data by to povrdili.
Naproti tomu uzivatele ZFS -pokud si vlastni blbosti pod sebou nepodrizli vetev- pouzivaj ZFS uz roky bez problemu =
jsem 1 z nich.
@MS
"....vyzkoušet různé typy kompresí (zfs set compression=), bude to určitě účinnější, než deduplikace"
Ano to je spravna odpoved viz:
Unless you have a lot of RAM and a lot of duplicate data, do not change the default deduplication setting of “Off”. For performance reasons, consider using compression rather than turning this option on.
http://doc.freenas.org/9.3/freenas_storage.html?highlight=deduplication#deduplicationhttps://constantin.glez.de/2011/07/27/zfs-to-dedupe-or-not-dedupe/@Y.
"...Pravdepodobne nechape, co ta deduplikace dela..."
Mas to skoro na jednicku, jen bych dodal ze pri zapisu se pocitaji i hashe samotnych hashu a ty se pak rozhazuji ve Vdev tak aby i ztrata 1 az 3 disku na ne nemela vliv..... (RaidZ1-RaidZ3)
Komprimace textu je velmi vyhodna, komprimace hodne zkomprimovanych napr.MP3 ci videa je prakticky nemozna, takze je rozumne tyto typy drzet na vlastnim datasetu BEZ komprimace.
Jinak opakem dedup je "klonovani" alias rekneme ZFS systemu aby STEJNA data pri zapisu nakopiroval i jinam a to podle algoritmu ktery zaruci ze "totozny zlomek souboru" NEBUDE na stejnem disku.............coz uz je docela voodoo

)))
@Sten
"ZFS se (jako všechny checksumované filesystémy) opravuje samo, když narazí na chybu. Zkontrolovat (a opravit) všechny soubory lze pomocí scrubu. Pokud narazí na chybu, kterou opravit nedokáže, tak opravit nejde."
V principu to vypada nejak takhle
https://derivadow.files.wordpress.com/2007/01/zfs-self-healing.jpg?w=620Scrub se pak v podstate tvari jako ze chce cist vsechno naraz a projizdi cely Vdev.......coz muze zabrat i nekolik hodin nicmene to funguje VELMI SPOLEHLIVE! = vlastni zkusenost.
Vice o scrub+self-healing system zde:
http://doc.freenas.org/9.3/zfsprimer.html?highlight=scrub#zfs-primer