Fórum Root.cz
Hlavní témata => Server => Téma založeno: caryfuk 26. 02. 2015, 18:27:52
-
Dostal jsem stoj po jednom expertovi,
na stroji chcipl patrne raid, z prvniho disku se neda cist, zustalo jen sdb, system bezi.
Rad bych obnovil raid na dalsi disk, bez restartu nicmene narazil jsem na:
A Fail event had been detected on md device /dev/md126.
It could be related to component device /dev/sda.
Faithfully yours, etc.
P.S. The /proc/mdstat file currently contains the following:
Personalities : [raid1]
md126 : active raid1 sda[1](F) sdb[0]
488383488 blocks super external:/md127/0 [2/1] [_U]
---------------------------------------------------
dd if=/dev/sda of=/dev/null bs=1M
dd: error reading ‘/dev/sda’: Input/output error
---------------------------------------------------
#sfdisk -d /dev/sdb |sfdisk /dev/sdg
sfdisk: Checking that no-one is using this disk right now ...
sfdisk: OK
Disk /dev/sdg: 60801 cylinders, 255 heads, 63 sectors/track
Old situation:
Units: cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0
Device Boot Start End #cyls #blocks Id System
/dev/sdg1 * 0+ 60799 60800- 488375968+ 7 HPFS/NTFS/exFAT
/dev/sdg2 0 - 0 0 0 Empty
/dev/sdg3 0 - 0 0 0 Empty
/dev/sdg4 0 - 0 0 0 Empty
New situation:
Units: sectors of 512 bytes, counting from 0
Device Boot Start End #sectors Id System
/dev/sdg1 1 976766975 976766975 ee GPT
/dev/sdg2 0 - 0 0 Empty
/dev/sdg3 0 - 0 0 Empty
/dev/sdg4 0 - 0 0 Empty
sfdisk: Warning: partition 1 does not end at a cylinder boundary
sfdisk: Warning: no primary partition is marked bootable (active)
This does not matter for LILO, but the DOS MBR will not boot this disk.
Successfully wrote the new partition table
---------------------------------------------------
Re-reading the partition table ...
sda 8:0 0 465.8G 0 disk
sdb 8:16 0 465.8G 0 disk
└─md126 9:126 0 465.8G 0 raid1
├─md126p1 259:0 0 200M 0 md /boot/efi
├─md126p2 259:1 0 500M 0 md /boot
└─md126p3 259:2 0 465.1G 0 md
├─fedora_root 253:0 0 50G 0 lvm /
├─fedora_swap 253:1 0 7.8G 0 lvm [SWAP]
└─fedora_home 253:2 0 407.3G 0 lvm /home
sdg 8:96 0 465.8G 0 disk
---------------------------------------------------
cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sdb[0]
488383488 blocks super external:/md127/0 [2/1] [_U]
---------------------------------------------------
skoncil jsem na:
mdadm --add /dev/md126 /dev/sdg
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
Mel jsem za to, ze raid je to proto, aby se za jizdy vymenil disk a jede se dal, pod linuxem patrne ne.
Nejake rady?
Data zatim zalohuji na druhy disk, reinstal a znovu vytvoreni pole se mi nechce, to asi radej ten linux zahodim a hodim na to bsd a zfs.
-
To se to tam snažíš páchat? Proč neodpojíš ten vadný disk a místo něj nepřipojíš nový (prázdný bez jakýchkoliv oddílů, ne s nějakýma troskama z Windows.)
-
To se to tam snažíš páchat? Proč neodpojíš ten vadný disk a místo něj nepřipojíš nový (prázdný bez jakýchkoliv oddílů, ne s nějakýma troskama z Windows.)
Jeste jsem opomel dodat, ze jsem se pokousel odpojit stary
mdadm --manage /dev/md126 --remove /dev/sda
ale bez uspechu.
Ted ten vypis nemam u sebe.
Trosky z windows, je jedinny okamzite dostupny disk - pozadal bych o konstruktivni odpovedi a komentare.
Os jsem neinstaloval a dostal jsem to ve stavu jak je.
Dekuji.
-
...
skoncil jsem na:
mdadm --add /dev/md126 /dev/sdg
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
Nemá to byť takto? mdadm --manage /dev/md126 --add /dev/sdg
-
...
skoncil jsem na:
mdadm --add /dev/md126 /dev/sdg
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
Nemá to byť takto? mdadm --manage /dev/md126 --add /dev/sdg
Bylo to tak, jak pisete... asi chyba pri prekopirovavani nebo formatovani textu.
-
asi se ti to samo prehazelo i pri vkladani do terminalu, protoze ta chyba odpovida spatne syntaxi kterou si uvedl tu, cpal si md126 DO sdg ale jiste si chtel obracene, nejspis v bsd nectes manualy protoze mas bsd-vesteckou-kouli ze ? ;)
mdadm /dev/md126 --fail /dev/sda --remove /dev/sda --add /dev/sdg
-
asi se ti to samo prehazelo i pri vkladani do terminalu, protoze ta chyba odpovida spatne syntaxi kterou si uvedl tu, cpal si md126 DO sdg ale jiste si chtel obracene, nejspis v bsd nectes manualy protoze mas bsd-vesteckou-kouli ze ? ;)
mdadm /dev/md126 --fail /dev/sda --remove /dev/sda --add /dev/sdg
spusteno bylo toto s temito vysledky:
mdadm --manage /dev/md126 --fail /dev/sda
mdadm: set device faulty failed for /dev/sda: No such device
[root@windmill svn]# mdadm /dev/md126 --fail /dev/sda
mdadm: set device faulty failed for /dev/sda: No such device
# mdadm --manage /dev/md126 --remove /dev/sda
mdadm: Cannot remove disks from a 'member' array, perform this operation on the parent container
# mdadm --manage /dev/md126 --add /dev/sdg
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
Tvuj priklad:
mdadm /dev/md126 --fail /dev/sda --remove /dev/sda --add /dev/sdg
mdadm: set device faulty failed for /dev/sda: No such device
Je skvele, ze ty jsi nikdy neudelal chybu, ja je delam casto.
-
Chápu-li to správně, tak raid je vytvořen nad celými disky. V raidu je zapsáno, že jeho členové jsou /dev/sda a /dev/sdb, přičemž ten první je vadný. Vzhledem k tomu, že je raid přez celé disky, není třeba kopírovat partition table. Já jsem zatím vždy zaměňoval disk za disk na stejné pozici a používal jsem pro to tuto sekvenci příkazů:
vyjmuti: mdadm /dev/md126 -r /dev/hda
vlozeni: mdadm /dev/md126 -a /dev/hda
což je totéž co jsi dělal ty.
Zaráží mne alemdadm: Cannot remove disks from a 'member' array, perform this operation on the parent container
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
. Připadá mi, že tento systém používá nějaký mechanismus oddělení - kontejnery ale ty nejsi ve správném kontejneru a tak k tomu nemáš příslušná práva.
-
....
Zaráží mne alemdadm: Cannot remove disks from a 'member' array, perform this operation on the parent container
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
. Připadá mi, že tento systém používá nějaký mechanismus oddělení - kontejnery ale ty nejsi ve správném kontejneru a tak k tomu nemáš příslušná práva.
Ano, taky jsem to rano zjistil, puvodne jsem se domnival, ze toto je nefunkcni, ale patrne se jedna o nejaky "HW" raid na ICH5-7:
Personalities : [raid1]
md126 : active raid1 sdb[0]
488383488 blocks super external:/md127/0 [2/1] [_U]
md127 : inactive sdb[1](S) sda[0](S)
5928 blocks super external:imsm
patrne se to nejak opravuje po rebootu(http://ubuntuforums.org/showthread.php?t=2224874), ale to riskovat nebudu, takze data na EXT4 odzalohovat a cista instalace bez tohohle bastlu.
-
Personalities : [raid1]
md126 : active raid1 sdb[0]
488383488 blocks super external:/md127/0 [2/1] [_U]
md127 : inactive sdb[1](S) sda[0](S)
5928 blocks super external:imsm
Tento výpis /proc/mdstat je iný, než v Tvojich predošlých postoch (pribudol tam md127). >:( Ľudia Ti tu radia na základe informácií, ktoré im poskytneš. Ak sú vstupné informácie neúplné, odpoveď bude postavená na mylných predpokladoch. Pre Tvoje dáta to môže mať fatálne následky.
imsm je Intel RAID a pracuje sa s ním pomocou mdadm -e imsm
-
Tento výpis /proc/mdstat je iný, než v Tvojich predošlých postoch (pribudol tam md127). >:( Ľudia Ti tu radia na základe informácií, ktoré im poskytneš. Ak sú vstupné informácie neúplné, odpoveď bude postavená na mylných predpokladoch. Pre Tvoje dáta to môže mať fatálne následky.
imsm je Intel RAID a pracuje sa s ním pomocou mdadm -e imsm
[/quote]
Ten md127 jde videt i v prvnim vypisu, kdo tomu rozumi, vedel by oc jde.
O data jsem se postaral, jak jsem jiz psal.
Mnoho povyku pro nic(rad pramalo).
Nicmene dik za tip, zkusim ho a reseni sem vlozim, ale pouzivat ichX raid nebudu.
-
Data odzalohovana, nasledne vypnuti, prehozeni vadneho disku za novy, system najel a zacalo recovery bez jedineno zasahu.
#cat /proc/mdstat
Personalities : [raid1]
md126 : active raid1 sda[2] sdb[0]
488383488 blocks super external:/md127/0 [2/1] [_U]
[=>...................] recovery = 6.0% (29519488/488383620) finish=75.6min speed=101156K/sec
md127 : inactive sda[1](S) sdb[0](S)
6117 blocks super external:imsm
-
Dostal jsem stoj po jednom expertovi,
A koukam ze to prebral dalsi expert
-
pokud mas zalohu tak bych to cele smazal a udelal znova, bez pouziti intel raidu.
cely tvuj problem byl v tom ze ac mdadm umi pracovat s intel raidem, ne vsechno funguje, a ne vsechno se dela stejne. intel raid uvnitr mdadm pouziva jinou logickou strukturu, coz je duvod proc ti to vracelo chyby - ty prikazy pro to proste vypadaji jinak