z chování onedrive lze odtušit, že používá obdobnou technologii jako je jeho Azure Block storage. Za roky s onedrive (primárně teda placenými a nikoliv osobním) jsem se nesetkal s poškozením dat na straně uložiště, používá standardní checksumy a auto healing. Klienti tam mají dlouhodobě ohromné množství dat a bez problémů.
S čím se ale sektávám často je porušení FS na straně klienta, onedrive není posix, nemá zámky, nemá dobře vyřešený paralelní přístup, ovladače od MS už několikrát vykazovaly závažné chyby. Tipuji, že k poškození dochází na straně klienta a poškozené soubory jsou pak v onedrive již uloženy.
Osobně ale dlouhodobě data ukládám do šifrovaným kontejnerů a k něm mám kontrolní součty, začal jsem to dělat už na diskety, cd a dnes do cloudů. Hlavní důvod je lepší katalogování dat, verzování a kontrola integrity. Setkal jsem se už s obrovským množtvím chyb a rád se vracím ke starým verzím.
ZFS scrub na serveru bez ECC je hodně riziková věc, načteš nepoškozená data z disku, v paměti se ti otočí bit, ZFS si myslí, že jsou poškozená a přemaže kopii nebo při ukládání zvalidovaných dat do ZFS dojde k změně bitu a uložíš jiná data. Scrub generuje velké množství IO operací a tím zvedá šanci, že se ti nějaká data poškodí. Nemám data z domácího NASu, ale u storage serveru (70 TB dat, denně čtení 100TB, zápis 20TB) podle interního čítače k přehození bitu v paměti v jednotkách ks za den. U domácího NASu to může být třeba jednou po půl roce, odhad čísla nemám a non-ECC paměti to neumějí ani detekovat.