3361
Server / Re:Nativní ZFS v Linuxu pozastavuje po zaplnění bufferu zápis na 8 TB disk
« kdy: 06. 03. 2016, 08:40:25 »FreeBSD mi nesedloV čem ti nesedlo? Bude to pravděpodobně jenom nezvyk...
Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.
FreeBSD mi nesedloV čem ti nesedlo? Bude to pravděpodobně jenom nezvyk...
edit: to 4 melo byt, proc reagujes kdyz ne?Protoze jsem ten prispevek napsal driv, nez jsi to poslal a uz se mi ho nechtelo upravovat.
4. kernel naběhne a dál dělá, co potřebuje - tj. zejména načte root FS a pak už normálně bootujeTady mělo být "načte root FS z místa B", přičemž A muže být s B totožné, ale nemusí. Například se může načíst kernel+initrd přes tftp a rootfs potom připojit přes NFS.
alfa[(row*ROW_LEN)+col]
?
Spíš bych očekával, že tímhle směrem budou hodně šlapat, dobře to propojí se svými mainframy, budou podporovat hybridní řešení s nějakým tím LinuxOne u zákazníka... ...a bude to docela hezká věc.No... a už tady máme přesně tohle řešení nejen od IBM, ale i od SuSE: http://www.enterprisetimes.co.uk/2016/03/04/suse-targets-private-cloud-with-openstack-6
Ok, mohu zkusit zápis náhodných dat na blokové zařízení na kterém je nyní ZFS. Napřed bych zazálohoval třeba 10 GB na jiný disk, přepsal je náhodnými daty a pak původní data vrátil. Tím by se předpokládám nemělo nic stát, když to zařízení nebude používané a dám si pozor na to, co zadávám za parametry. Co zkusit dál pokud zjistím, že ta rychlost je podstatně vyšší a hlavně plynulá?No to je hodně velká prasárna. Můžeš to udělat, pokud 1. tam nemáš data, na kterých ti záleží, 2. budeš přesně vědět, co děláš, 3. nebudeš to dělat na "klidném", ale na úplně odpojeném FS, to znamená "zpool export ...". Každopádně ale potřebuješ vyzkoušet i ty další vrstvy.
Jak bych prosím mohl zjistit?LUKS jsem nikdy nepoužíval, takže přesnou radu nechám na kolegy. Obecně musíš mít podporu AES-NI v jádře (měla by být běžně) a LUKS musí používat šifru, kterou AES-NI podporuje.
Představme si [...] Představoval bych si, že data do plného bufferu půjdou přidávat stejnou rychlostí, jakou se z něj zapisují na fyzický disk.Není tak úplně důležité, co si představujeme, ale jak to reálně funguje
ZFS je dost složitá věc samo o sobě a ty mu tam přidáváš ještě dvě vrstvy navíc, takže jak se to reálně chová nejseš imho vůbec schopnej odhadnout.Ok, tuto zkušenost respektuji. Chtěl bych se zeptat, připravuji se o nějaké jiné vlastnosti než jen výkon?Připravíš se o všechny vlastnosti, které využívají toho, že ZFS ví, co jsou živá data, zatímco mdraid to neví. Čili stoprocentně si způsobíš to, že při výpadku bide probíhat resilvering celého disku, zatímco ZFS by resilverovalo jenom živá data.
A mohu se na RAIDZ a RAIDZ2 spolehnout v Linuxových implementacích "ZFS on Linux" a "ZFS-FUSE"? A umí už ZFS konverzi RAIDZ na RAIDZ2?Já osobně bych se na ZFS on linux nespoléhal vůbec
Na FreeBSD se to ladilo fakt roky a pořád ještě to není úplně bullet-proof, ale je to produkčně použitelný. ZFS on Linux bych na produkci nedal (ale to je každého věc, čemu bude důvěřovat a čemu ne).A právě proto jsem chtěl RAID řešit přes mdadm, aby přidávat disky bylo možné.Nejsem si jistý, jestli si významně pomůžeš. Musel bych si sepsat konkrétní postup přidávání disku a jejich propagaci do zpoolu, teď z hlavy to nedokážu říct, jak dobře to půjde.
Takže předpokládám správně, že implementace ZFS v OpenIndiana vychází z implementace v OpenSolaris? Funguje na OpenIndiana hardware bez problémů a lze doinstalovat KDE či xfce? Vyvíjí se vůbec aktivně OpenIndiana?Solaris ani jeho klony jsem nikdy nepoužíval, takže bohužel neporadím.
Aha, to je dobré vědět, děkuji. Jen na tom nechápu: Myslel jsem, že Linux je rozšířenější než FreeBSD či OpenIndiana, tj. software by měl být pro Linux obecně lépe odladěný. Je to jinak?Je to tak co se týče aplikačního software. Co se týče samotného OS, tak je všechno odladěné tak, jak to výrobce odladí
A ZFS prostě pochází ze Solarisu, takže nejlíp funguje tam. Pak slušně funguje na FreeBSD, protože se tam už dlouho ladí ... no a pak je všechno ostatní....čili mám desetkrát míň RAM než je na tolik dat doporučeno. Chápu tím vysvětlení zápisu 1 MB/s, ale ne problémů s plynulostí.V IT je spousta věcí, které nechápu
Pokud jdeš nedoporučovanou cestou, nesmíš se divit ničemu.Hashe používané při deduplikaci se při čtení nijak necachují? Dokáži si představit situace, kdy by se to hodilo.
Myslím, že autoři ZFS jsou znalostmi nad námi o tolik světelných let, že si určitě dokáží představit ledacos, o čem se nám ani nesní
Jde o to, jak a proč je to implementované, ne jak si to my dva laici představujeme jako Hurvínek válku
LZJB je lepší než GZIP? Jak jsem již uvedl, o rychlost mi moc nejde, proto upřednostňuji efektivitu komprese, která by měla být u GZIP obvykle lepší než u LZJB.Jo, tak pokud ti nejde o výkon a jde o kompresi, tak pak gzip. Můžeš zvážit i jinou úroveň - gzip-7, gzip-8... ale rozdíly jsou malé a CPU penalizace je velká. Záleží na tobě, musíš si sám udělat benchmarky, co ti bude vyhovovat.
compression=gzipGzip je špatná komprese. Pokud tvoje verze ZFS podporuje něco jiného, použij to v tomhle pořadí:
Zní to zajímavě, děkuji. Leč hned po koupi jsem provedl nějaké testy, při kterých sekvenční zápis byl podstatně rychlejší než 1 MB/s.Disk nemůže zapisovat rychlostí 1MBps, máš tam něco zatraceně špatně.
Každopádně primárně řeším plynulost zápisu. Aby ten ZFS pool neměl každou chvíli na několik minut pozastavené veškeré zápisy. Potřebuji aby šlo na pool kdykoliv zapisovat, i kdyby nízkou rychlostí.Pokud ti to opravdu zapisuje rychlostí 1MBps a data tam hrneš rychleji, tak se tohle prostě nevyhnutelně stane, co jiného by se mělo stát? Buffer by bobtnal donekonečna...
Bojím se mít každý disk šifrovaný zvlášť a až na tom ZFS RAID, protože jednak ZFS RAID moc neumím a pak nevím, zda umí funkce jako mdadm včetně konverze RAID 5 na 6 (resp. RAIDZ na RAIDZ2) nebo dokonce naopak, obzvláště v nativní Linuxové open-source implementaci "ZFS on Linux".Rozhodně potřebuješ RAID na úrovni ZFS, jinak se zbytečně připravuješ o jeho vlastnosti a zbytečně to kombinuješ s další vrstvou, která nic neví o datech nad ní. Je to špatně a nedělej to tak.
Zvažoval jsem přechod z Linux Mint nebo Debian-based OS obecně na OpenSolaris, ten je ale kvůli Oracle "discontinued". Zvažuji proto přechod na nástupce jménem OpenIndiana, ale byla by to celkem velká změna a nevím, jak moc kvalitní je implementace ZFS v OpenIndiana.Určitě o několik řádů kvalitnější než na Linuxu

NO WAY!a myslím problém bude s tou deduplikací, kolik máš ram? máš l2arc? já měl deduplikaci jen na 4T (půlka plná) zapnutou a s 16GB RAM to dělalo velmi velké problémy, musel jsem deduplikaci vypnout.
Mám sice jen 4 GB RAM
A general rule of thumb is 1 GB of RAM for every 1 TB of storage. If the deduplication feature is used, a general rule of thumb is 5 GB of RAM per TB of storage to be deduplicated.https://www.freebsd.org/doc/handbook/zfs-advanced.html
, ale swap 16 GB je téměř vždy prázdný.Se swapem to imho nemá co dělat.
L2ARC je téměř 100 GB, pokud se nemýlím a je společně s logem na SSD disku:L2ARC je read cache, která se použije jenom v případě, že čteš data, která nejsou nacachovaná v RAM. Pokud z poolu nečteš, nepoužije se ani 1B L2ARC
Takže s tvými problémy se zápisem to nijak nesouvisí.K serveru co poštu filtruje.. rsp chci aby email došel jak do starého serveru, tak do tohodle třetího zároveň.Tak teď teda nevím. Server A je "gateway", chodí tam maily zvenku, on je filtruje a ham posílá na server B. Ty chceš mít redundantní A nebo B?
)
Není to nestandardní, je to stav, kterému se říká "Split domain".To ale není to, na co se OP ptal.
Část uživatelů ve stejné doméně je na jednom serveru, část na druhém.