Pujdu proti proudu.
Pokud mam takovou konfiguraci a hw raid mi to podporuje pak nevidim jediny duvod proc se morit se ZFS. Udelal bych raid 5 plus mirror (pokud bych nechtel spare), lvm + fs dle meho vyberu a jdu dom. Snapshoty si resim na kvm/proxmoxu. ZFS je fajn pokud nemam slusny raid. Znackovej raid karty nejsou vubec zle, napriklad hpeckova smart array maji genezi snad 30 let jeste z dob compaqu a jsou to spolehlive karty, s vicemene stejnymi tooly a filosofii. Dell na tom bude imo podobne (nemam zkusenost) - zkus pohledat po forech.
on je rozdíl v provozu, pokud mám raid 5+0 (ať už SW nebo HW), tak největší problém je používání v degraded stavu, prostě to musím nejprve obnovit a obnova u 5 trvá snad ze všech možností nejdéle.
Skvělé na zfs je schopnost ověřit stav na disku a případně chyby opravit, to u jiných řešení není tak běžné.
Pokud jde o řešení uložiště, hlavní rozhodování by mělo být podle toho, jak se to chová v případě problémů a ne když vše funguje jak má, pak není skoro co porovnávat, že?
Také spravuji servery, které 20+ let fungují nad jediným diskem a běží stabilně, ale přece na základě toho nebudu říkat, že raid je k ničemu. Stejně tak mám pod rukama clustery s tisíci disky, kde každý týden se nějaký disk mění, z toho ale také nemohu vyvozovat, že disky jsou k ničemu a bez raidu si ani nevrznu.
1) nepsal sem raid 50. Psal sem RAID5 + RAID1 - uzivatel ma 6 disku a ma to na lab - za me naprosto idealni setup Chovani v degraded stavu muzete ovlivnit nastavenim radice, kdy muzete prioritizovat rebuild nad i/o a obracene. Souhlasim s tim ze vice disku v raidu/logical volumu => vetsi moznost ze nejaky selze. Ncimene jak se s tim to ci ono pole popasuje zalezi na name. Meli jsme to treba HPE Evu ktera delala diskgroupy po 12 discich a nikomu to nevadilo. Meli jsme tu treba ibm storvize, kde byl aktivni cely rack a taky to nikomu nevadilo.
2) Na server raid radicich zase ocenuji prediktive failure, kdy casto dostane hlasku o tom "ze se neco deje", ncimene disk funguje dal a pole neni v degraded stavu. Vendori takova disky uzvanvaji jako vadne a automaticky je meni (ne ze by pro lab to bylo smerodate), ale mate imo vetsi cas tim neco udelat.
HW Raid skryje před ZFS cenná data o chování disků a přidává falešné flushe, tj. zvyšuje se riziko ztráty dat.
Jak ? Prosim rozvest
Qemu a jeho qcow sice poskytuje podobné funkce pokud jde o snapshoty, ale jeho stabilita a rychlost jsou naprosto tristní.
Takovou zkusenost tedy opravdu nemam. Rychlost a stabilita je naprosto bezna s podobnout operaci treba ve vshpere
Obecne: bylo by fajn se taky podivat do historie proc a kdy zfs vzniklo. Zatimco jedni vendori (ibm, hp, dell apod) sli cestou hw raidu, Sun sel cestou zfs sw raidu. Obe reseni se v praxi ukazala jako zivotaschopna a maji sva pro a proti. Prijde mi ze uzivatele a vyvojari zfs spatne chapou jak server like/enterprise controllery (ne fakt se nebavime o pseudo desktop raidech) funguji. Byl tu zminen napr. "reordering" - wtf ? Nejspis je minen reordering v ramci raidu ale to je pro zfs cokoliv naprosto irelevantni, v podostaten neexistuje scenar ze byste nedostali data, ktera byla potvrzena. Pokud by to byla pravda pak Vam nebou fungovat ani relacni db. Je otazka proc pak zfs nad takovy raid nasazovat kdyz obe veci delaji vicemene to stejne, Kdyz to shrnu tak:
Hw raid + legacy fs bych nasadil v pripade ze:
- Mam slusnej kontroler/kartu/pole
- Mam obecne v raidech mensi pocet disku, pripadne je umim delit
- Nepotrebuji resit snapshoty na baremetalu, pripadne nemam technologie ktere je podporuji (fs/db/virtualizaci)
- umim s prislusnou technologii
ZFS bych nasadil v pripade ze:
- mam jbod disky a chci raid
- mam nejake specificke pozadavky na vykon/dostupnost/io - napriklad pokud stavim nejake kriticke centralni uloziste a potrebuju versatilitu
- umim se zfs

Slusnej standartni hw raid typu p420 kterej se rve do kazdyho proliantu je imo naprosto dostacujici pro 90% entry/midrange prostredi