Fórum Root.cz
Hlavní témata => Server => Téma založeno: Pavel2 26. 01. 2015, 10:20:26
-
Mam na stole jeden SAN od Synology... Koukal sem jak si udelal raid a nasel
Raid Level : raid1
Array Size : 2097088 (2048.28 MiB 2147.42 MB)
Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Tue Jan 20 16:37:59 2015
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
UUID : ba5741f2:c217f8a2:c69de3af:22ddbed7
Events : 0.48
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
2 8 50 2 active sync /dev/sdd2
3 0 0 3 removed
RS01> mdadm --detail /dev/md1
Muze mi nekdo vysvetlit co je stav "clean,degraded" ?
-
asi, že tam chybí jeden disk, ale data jsou v pořádku?
-
Jak je ale mozne, ze tohle pole si udelalo Synology samo? A nikde v consoli nehlasi problem
-
Mam tam tu samou, zrejme nejakej systemovej 2GB oddil pro potreby Synology...ale nevidim ho nikde namountovanej, tak nevim.
RS> mdadm --detail /dev/md1
/dev/md1:
Version : 0.90
Creation Time : Wed Dec 8 03:10:18 2010
Raid Level : raid1
Array Size : 2097088 (2048.28 MiB 2147.42 MB)
Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Sat Jan 24 18:50:55 2015
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
UUID : 93de880d:45dfe1ca:b1ba845c:4a631205
Events : 0.170648
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
3 8 50 3 active sync /dev/sdd2
-
Pole ktere se vytvori pruvodcem je ok a ma status clean ...
-
No a delal jsi teda neco s tim ctvrtym diskem?
-
... Muze mi nekdo vysvetlit co je stav "clean, degraded" ?
clean - pole je aktivní, neprobíhá zápis
degraded - v poli chybí disk nebo je vadný
Viz např. https://www.kernel.org/doc/Documentation/md.txt
U Synology Cube Station CS407 (DSM 3.1.xxx - poslední verze DSM dostupná pro CS407) je na:
/dev/md0 - root (mj. Synology DSM)
/dev/md1 - swap
/dev/md2 atd. - pole vytvořené (-á) uživatelem pomocí DSM
U obdobných produktů Synology to (asi) bude víceméně obdobné.
A takhle to vypadá, když dojde k degradaci pole v důsledku vadného bloku na disku v poli md2 - RAID5 (výpis /var/log/messages):
Aug 1 19:46:22 scemd: SCEMD: read error at md2 disk 4 sector 385529600
Aug 1 19:46:22 scemd: ScemRefreshDiskLed(557)Disk 4 fail
Aug 1 19:46:22 scemd: modules/raid_data_volume_check.c:1020 /dev/vg1000/lv state changes from 0 to 1.
Aug 1 19:46:22 scemd: modules/raid_sys_volume_check.c:259 Md0 degraded [3/4]
Aug 1 19:46:23 scemd: modules/raid_sys_volume_check.c:259 Md1 degraded [3/4]
A takhle vypadají jednotlivá pole po výše uvedené degradaci:
CubeStation> date ; mdadm -Q /dev/md0 ; echo
Fri Aug 1 21:30:19 CEST 2014
/dev/md0: 2.37GiB raid1 4 devices, 0 spares. Use mdadm --detail for more detail.
CubeStation> date ; mdadm -D /dev/md0 ; echo
Fri Aug 1 21:30:25 CEST 2014
/dev/md0:
Version : 00.90
Creation Time : Sat Jul 5 11:50:00 2014
Raid Level : raid1
Array Size : 2490176 (2.37 GiB 2.55 GB)
Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Fri Aug 1 21:30:25 2014
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
UUID : 0d32ff8c:77a74e95:f537f676:6f3ec822
Events : 0.3556
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/hda1
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 0 0 3 removed
CubeStation> date ; mdadm -Q /dev/md1 ; echo
Fri Aug 1 21:31:14 CEST 2014
/dev/md1: 2047.94MiB raid1 4 devices, 0 spares. Use mdadm --detail for more detail.
CubeStation> date ; mdadm -D /dev/md1 ; echo
Fri Aug 1 21:31:24 CEST 2014
/dev/md1:
Version : 00.90
Creation Time : Sat Jul 5 11:50:00 2014
Raid Level : raid1
Array Size : 2097088 (2048.28 MiB 2147.42 MB)
Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Fri Aug 1 21:30:54 2014
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
UUID : f073dbe7:a3f0473b:1cfb0dd2:38ef5810
Events : 0.452
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/hda2
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/hdc2
3 0 0 3 removed
4 8 50 - faulty spare /dev/hdd2
CubeStation> date ; mdadm -Q /dev/md2 ; echo
Fri Aug 1 21:31:30 CEST 2014
/dev/md2: 2780.100GiB raid5 4 devices, 0 spares. Use mdadm --detail for more detail.
CubeStation> date ; mdadm -D /dev/md2 ; echo
Fri Aug 1 21:31:36 CEST 2014
/dev/md2:
Version : 01.02
Creation Time : Sat Jul 5 20:52:57 2014
Raid Level : raid5
Array Size : 2916086016 (2781.00 GiB 2986.07 GB)
Used Dev Size : 1944057344 (1854.00 GiB 1990.71 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Fri Aug 1 21:31:36 2014
State : active, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : 2
UUID : a3f3c3ab:de6ca92c:6be9e81f:53fd9f9d
Events : 19182
Number Major Minor RaidDevice State
0 8 5 0 active sync /dev/sda5
1 8 21 1 active sync /dev/sdb5
2 8 37 2 active sync /dev/sdc5
3 0 0 3 removed
4 8 53 - faulty spare /dev/sdd5
CubeStation>
Po přidání disku se všechna pole obnoví. Za pokus stojí přidat tam zpět ten vadný; ani s ním nemusíte fyzicky manipulovat (odpojit, vyjmout at.). Otestovat se dá přímo v NAS. Vadný (-é) blok (-y) se přemapuje (-í) při zápisu - synchnonizaci polí.
-
Ja uz vim kde je problem ....
Disky jsou nakrajeny takto:
/dev/sda /dev/sda2 /dev/sdb /dev/sdb2 /dev/sdc /dev/sdd /dev/sdd2
/dev/sda1 /dev/sda3 /dev/sdb1 /dev/sdb3 /dev/sdc1 /dev/sdd1 /dev/sdd3
Tohle jsou vsechny raidy
ersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sda3[0] sdd3[2] sdb3[1]
1943880832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md1 : active raid1 sda2[0] sdb2[1] sdd2[2]
2097088 blocks [4/3] [UUU_]
md0 : active raid1 sdb1[1] sda1[0] sdd1[2]
2490176 blocks [4/3] [UUU_]
unused devices: <none>
md1 / md0 - nemaji sdc1 a sdc2 takze dam replace a uvidim co se bude dit.
-
Ja uz vim kde je problem ....
Já taky :). Evidentně Vám odešel 3. disk (=> degradace md0 a md1). Pole md2 (RAID5) jste pak vytvořil jen z disků 1, 2 a 4.
Po "výměně" 3. disku pak můžete pole md2 rozšířit nebo ho vytvořit znovu. Záleží na tom, zda tam máte data (tipuji, že ne).