Fórum Root.cz
Hlavní témata => Server => Téma založeno: tmx 24. 11. 2021, 14:27:35
-
ahoj, nevim jak si poradit s raid6 polem. pole se tvari jako degraded pritom vsechny disky se tvari jako online.
# storcli /c0/v0 show all
DG/VD TYPE State Access Consist Cache sCC Size Name
0/0 RAID5 Dgrd RW No RWBD - 1.087 TB GenericR5_0
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
252:0 9 Onln 0 278.465 GB SAS HDD N Y 512B AL13SEB300 U
252:2 10 Onln 0 278.465 GB SAS HDD N Y 512B WD3001BKHG-23D U
252:5 18 Onln 0 278.465 GB SAS HDD N Y 512B AL13SEB300 U
252:4 20 Onln 0 278.465 GB SAS HDD N Y 512B AL13SEB300 U
# storcli64 /c0/d0 show
Controller = 0
Status = Success
Description = Show Diskgroup Succeeded
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace
0 - - - - RAID5 Dgrd N 1.087 TB dflt N N dflt N
0 0 - - - RAID5 Dgrd N 1.087 TB dflt N N dflt N
0 0 0 252:0 9 DRIVE Onln N 278.465 GB dflt N N dflt -
0 0 1 - - DRIVE Msng - 278.465 GB - - - - -
0 0 2 252:2 10 DRIVE Onln N 278.465 GB dflt N N dflt -
0 0 3 252:5 18 DRIVE Onln N 278.465 GB dflt N N dflt -
0 0 4 252:4 20 DRIVE Onln N 278.465 GB dflt N N dflt -
pres storcli se nemuzu dobrat toho z kterych disku je pole vlastne slozeno.
v minulosti jsem disk menil a vymeneny disk do pole vratil:
# storcli /c0/v0 start migrate type=raid5 option=add drives=252:4
postupoval jsem zhruba podle:
https://www.thomas-krenn.com/en/wiki/StorCLI_commands
https://wiki.nikhef.nl/grid/Managing_RAID_Controllers
nemate nekdo tip jak zjistit proc je pole vlastne degraded?
-
Možná bys to měl nejprve vyčistit - třeba skutečně odebrat a zrušit všechny chybějící členy.
0 0 1 - - DRIVE Mising - 278.465 GB - - - - -
Ale fakt jsem na to kouknul jen pár vteřin, normálně na to mám webové GUI a CLI až tolik nepoužívám.
BTW - pokud pole složíš z 5ti disků a pak provozuješ jen 4, no tak bude pořád nasrané.
Jestli to jde "zaživa" stáhnout na 4 jsem nikdy nezkoušel.
A díky bohu za webové klikátka ;D
EDIT: Mluvíš o Raid6, to pole ale mluví o Raid5, hlásí to blbě nebo je chyba u tebe? ::)
-
chyba je u me, jasne raid5, omlouvam se.
-
No, asi takhle, hele, fakt na to koukám jen tak od boku jo?
Takže, vidím kapacitu Raid 5 1.087 TB = to je celková kapacita té jednotky.
Cajk?
To sedí ne? To vidíš taky ne?
Pak vidím kapacitu členů raidu 278 GB (jednotlivých disků)...
To taky sedí ne?
4* kapacita tvého disku = 1.1TB čisté kapacity
To taky sedí né? 4*0.278= ~1.1 TB a kapacita pole je 1.087 ne?
To taky sedí ne?
Takže ti tam evidentně chybí jeden disk....to se pak nediv, že to pole je nasrané.
Raid přeci ukládá kontrolní součty, takže celková je nižší o kontrolní součty = ve tvém setupu by kapacita pole měla být součet kapacit disků - kapacita jednoho disku (to místo se rozprostře a obsadí kontrolními součty).
Pokud RAID5 složíš ze tří disků, budeš mít kapacitu pole rovnou jen součtu kapacit dvou disků. Díky kontrolním součtům lze dopočítat data z chybějícího disku. V té tvé konfiguraci se mi nezdá, že by tam bylo dost místa, aby se tam kontrolní součty vešly = prostě chybí disk.
Ať na to koukám, jak na to koukám, pokud RAID 5 poskládáš ze 4 disků, měl bys mít kapacitu asi 870 GB.
http://www.raid-calculator.com/default.aspx
Dej vědět, jestli ti ty součty vychází stejně, jako mně.
-
Mas online jen 4 disky, a na ten 4+1 RAID5 potrebujes disku pet.
Nejspis ti jeden disk nadobro umrel, nebo se odpojil od nej kabel - si vyjed seriove cisla online disku, a pak se podivej fyzicky co ti prebyva a strc ho do jineho slotu.
Pripadne pokud mas moznost, tak dej identifikovat disk - blikanim jeho ledky. Takto zjisti ktery je ktery na serveru, a co jsi neidentifikoval tak ten je ten prebyvajici (volny/obsazeny slot snad fyzicky poznas, ale klidne vytahni vse cos nerozblikal).
-
Dej vědět, jestli ti ty součty vychází stejně, jako mně.
pocitas to dobre. tohoto jsem si nevsiml i pres to, ze mam uplne stejne dalsi dva stroje >:(
tagle to ma vypadat:
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace
0 - - - - RAID5 Optl N 835.395 GB dflt N N dflt N
0 0 - - - RAID5 Optl N 835.395 GB dflt N N dflt N
0 0 0 252:0 9 DRIVE Onln N 278.465 GB dflt N N dflt -
0 0 1 252:1 8 DRIVE Onln N 278.465 GB dflt N N dflt -
0 0 2 252:2 11 DRIVE Onln N 278.465 GB dflt N N dflt -
0 0 3 252:3 10 DRIVE Onln N 278.465 GB dflt N N dflt -
jdu se tam podivat. ne, nechapu!
-
pocitas to dobre. tohoto jsem si nevsiml
Rád jsem pomohl. Oproti mému běžnému trollování z toho mám úplně jiný pocit. Ne lepší, jiný, ale je to zajímavé, možná za pár let zase někomu poradím ;D
-
to ja jsem povinovan svou cti podekovat panu PanVP za nakopnuti!
udelal jsem dd if=/dev/sda, nove sestavil pole, image na mensi pole znovu nahral, FS se vztekal tak dostal xfs_repair -L /dev/mapper/sda_neco_root a piksla je v ovirt clusteru zpet.
takze ted resim co s centosem/ovirtem /protoze me RH trosicku, v budoucnu o dost vice, znacne sere/, ale to je jinej pribeh.
diky hosi ;]