Fórum Root.cz
		Hlavní témata => Server => Téma založeno: Pavel02  11. 12. 2014, 14:02:38
		
			
			- 
				Zdravim...
 teorie...
 
 Rekneme, ze mam server raid-5  4xhdd a 1x ssd na kterem bezi linux. Jak se da raid obnovit bez ztraty dat, pokud je SSD, kde bezel linux KO?
 
 
- 
				Pripojit disky k OK Linuxu.
			
- 
				a raid je pak mozne znovu obnovit a data sosnout?
			
- 
				a raid je pak mozne znovu obnovit a data sosnout?
 
 
 Pak se RAID ochotně sestaví a jde nejen číst, ale i používat, jako kdyby žádný vadný SSD disk nikdy nebyl.
- 
				a raid je pak mozne znovu obnovit a data sosnout?
 
 Nic není potřeba obnovovat. RAID prostě používáš na druhém Linuxu úplně stejně jako jsi ho používal na prvním.
- 
				pro jistotu doplnim... v "druhy/jiny/ok Linux" nainstalovat balika mdadm :)
			
- 
				Pokud máš hardwarový raid řadič, tak nemusíš nic řešit. O konfigurci pole RAID se stará řadič a OS jej vidí jako jeden velký disk a je jedno, jestli na něj přistupuješ z nainstalovaného linuxu, nebo z LiveCD.
 Pokud používáš softwarový raid, tak tak už je riziko. Nicméně není od věci si konfiguraci RAID pole zálohovat mimo server.
 Zkušenější jistě poradí lépe.
 
 
- 
				a raid je pak mozne znovu obnovit a data sosnout?
 
 Nic není potřeba obnovovat. RAID prostě používáš na druhém Linuxu úplně stejně jako jsi ho používal na prvním.
 
 
 Ciste teoreticky ... prakticky muze to pole byt v haji trebas proto, ze se systemu v poslednim tazeni povedlo ho sejmout.
- 
				Ciste teoreticky ... prakticky muze to pole byt v haji trebas proto, ze se systemu v poslednim tazeni povedlo ho sejmout.
 
 Jasne. Chtel jsem jenom rict, ze "prvni linux" se nelisi od "druheho linuxu" - u obojiho je potreba (ne)udelat to same. Tim se to lisi treba od bootovani, kde je u spousty distribuci zadratovany UUID, takze jeden linux z disku nabootuje a jiny nenabootuje.
- 
				no a zaklad je zalohovat zalohovat zalohovat!
			
- 
				Jasne me slo hlavne o to jak se ten rebuild provede... jestli staci pustit mdadm s nejakym parametrem "rebuild" nebo tak neco, pak neni co resit
			
- 
				Pokud tomu poli nic neni, tak zadnej rebuild, proste ho jen mountnes.
			
- 
				Svyho casu jsem mel 3x250 GB v raid5 doma. Vzal jsem z nej 2 disky, donesl k jinymu kompu s linuxem, disky v raid5 (degradovanym) namountil a data jsem mel.  RAID5 je odolny proti vypadku 1 disku z N. Samozrejme je to prasarna, ale byly tam jen nedulezity data, samy 0 a 1 :) . Pocitej ale s rebuildem, jakmile jinde na ten degradovanej raid5 zapises data. Podle velikosti to peknych par hodin bude trvat ...
			
- 
				jj - a taky (aspon podle netu) prave pri tom rebuildu hrozi zvysene nebezpeci padu dalsiho disku, takze se muze stat, ze raid5 neprezije. asi proto psali ze kdyz uz tak raid6. nezkousel jsem. raid 5 mam nasazeny a prezil uz vymenu 3 disku ze 3 za ty roky.
 zalohovani samozrejmosti !
 
- 
				Běžné SATA disky mají udávanou střední chybovost 10^-14 což ovšem po přepočtení znamená, že teoreticky dojde k chybě čtení po každých cca 12TB přečtených dat. Mějme RAID5 pole z 5x3TB disku. Po poruše jednoho disku je potřeba přečíst obsah zbylých 4 disků a ten pátý z nich dopočítat. Načíst obsah čtyř 3TB disků ovšem znamená přečíst 12TB dat. A výrobce říká, že střední doba mezi chybami je právě přečtených 12TB dat. Teoreticky by tedy "by design" mělo při takové rekonstrukci dojít k chybě čtení (a tudíž v podstatě havárii RAIDu). I pokud budu mít mejší políčko, třeba 3x2TB, Pořád musím při rekonstrukci přečíst 4TB. A to je 33,3% šance, že při rekonstrukci dojde k chyně. To taky není nic moc...
			
- 
				Běžné SATA disky mají udávanou střední chybovost 10^-14 což ovšem po přepočtení znamená, že teoreticky dojde k chybě čtení po každých cca 12TB přečtených dat. 
 
 Mohl bys dat odkaz na zdroj? Tohle se mi totiz zda nejak moc na to, aby to byly nedetekovane a nezkorigovane chyby na urovni SATA ("vystup z disku").
 
 Kdyz ma clovek ZFS, tak se i latentni chyby poznaji a nezda se mi, ze by se objevovaly tak casto, aby to odpovidalo tomuhle cislu.
- 
				datasheet vyrobcu http://www.seagate.com/www-content/product-content/desktop-hdd-fam/en-gb/docs/desktop-hdd-ds1770-5-1409gb.pdf
 riadok Non-recoverable Read Errors per Bits Read, Max je 1e-14 co je tych 12,5TB. pokial to dobre ratam tak pravdepodobnost ze po precitani 12,5TB dat sa tam nenachadza chyba je 36% co je myslim stale dost vysoka.
 
 (1-1E-14)^(10^14)==0,36
- 
				Pokud používáš softwarový raid, tak tak už je riziko.
 
 Riziko… v čem? Na začátku každého MD-RAID disku jsou metadata, která říkají, k jakému poli disk patří. mdadm buď automaticky při startu systému nebo ručně (-A --scan) projde všechna bloková zařízení a disky poskládá do polí.
 
 Kdyz ma clovek ZFS, tak se i latentni chyby poznaji a nezda se mi, ze by se objevovaly tak casto, aby to odpovidalo tomuhle cislu.
 
 Asi mám také štěstí na disky, chyby se mi takto nedějí.
- 
				datasheet vyrobcu http://www.seagate.com/www-content/product-content/desktop-hdd-fam/en-gb/docs/desktop-hdd-ds1770-5-1409gb.pdf
 riadok Non-recoverable Read Errors per Bits Read, Max je 1e-14 co je tych 12,5TB. pokial to dobre ratam tak pravdepodobnost ze po precitani 12,5TB dat sa tam nenachadza chyba je 36% co je myslim stale dost vysoka.
 
 Ono to asi takhle pocitat nejde - viz http://www.raidtips.com/raid5-ure.aspx Nejspis jde o to, ze kdyz disk "zacne blbnout", tak jsou tam ty chyby daleko hustejsi. A tyhle chyby jsou rozpocitane na celou dobu zivotnosti disku.
 
 Nevim, nejsem na to odbornik, ale ten vysledek se mi nezda.
- 
				myslim ze je to proste o tom ako casto sa vyskytne na disku vadny sektor co sposoby ze nejde precitat a je potrebne ho premapovat. to sa myslim stava dost casto. problem nastane ak je na disku takyto skryty vadny sektor a ide sa robit rebuild.
 
 myslim ze ak clovek roby pravidelne resync celeho pola tak by sa taketo sektory mali dat odhalit a teda velmi znizit pravdepodobnost ze sa pri pripadnom rebuilde budu zvysne disky obsahovat URE.