7
pre Marek Staněk: mierim tam ze rozdiel medzi tym co sa povazuje za archiv a zive data je pre mna pri pouziti ZFS uz len navrh struktury datasetov, sanpshotov a ich casovej udrzby - priebezna sprava, ale inak zfs pracuje v realnom case s maximalnou spolahlivostou a rychlejsie to uz nejde. Aj ukldanie metadat je osetrene v tom zmysle, trvanlivost medii z mojho pohladu pri zfs straca zmysel, teda ci nieco vydrzi 5 rokov alebo aj 20, nakolko aj "synchornizacia" je v ZFS poole inteligentnejsia ako kalsicky raid ci hardverovy alebo softvery (a bez ohladu na to sa to neda provnat vseobecne s vymennymi mediami), aj tuto vrstvu ma ZFS inak riesenu a ma ju integrovanu v sebe ako rovnocennu sucast k ostatnym a na jednoducho skalovatelnom principe. Cele to obchadza mnohe zbytocne vrstvy, zjedodusena architektura ktora vyzaduje minimalnu nadstavbu. Co je na tom este viac dobre ze ked bezi na ZFS samotny OS tak sa zjedodusj aj sprava stroja ta denna aj archivacna tam sa opat perejavuje ta zjenodusena architektura, lebo pri sprave OS je to este viac poznat tam je real time uplna priorita. Trvanlivost media napr CD/DVD (data tresor disc sa prestal vyrabat) v specifickych pripadoch ma zmysel zas pri pouziti ZFS, tak sa automaticky opat ziskava len to najlepsie, pridanim media do poolu, kde Special VDEV bezi napariklad na tom intel optane, je okazity pristup k tym blokom, ziadne checksumy ani medzivrstvy na pristup k inak pomalemu mediu netreba. Tazke sa ziska maximum aj v tom pripade. Ze ZFS je zlozitejsi nie je hedndikep oproti inym file systemom pretoze je to ina liga, analyzovat Special VDEV oddeleny od dat mozno by zvaldol aj AI a tak sa dostat k datam aj bez specifikacie, ak je specifikacia k rozhraniu disku aspon. A medium ako velky disk sa vymeni lahsie ked je novsia generacia ako obmienat x nasopbne viac medii.