Fórum Root.cz
Hlavní témata => Distribuce => Téma založeno: MichalS 09. 06. 2016, 07:11:08
-
Ahojte,
pisal som tento prispevok na askubuntu.com (http://askubuntu.com/questions/783379/ubuntu-server-16-04-sw-raid1-lvm-broken-raid-unable-to-boot), no zatial ziadna odpoved, tak skusim este tu
Mam stary notebook hp nx9020. Chcem pouzivat RAID1, preto mam PCMCIA kartu - SATA radic and SATA disk na nom. Pouzivam tuto konfiguraciu uz niekolko rokov (cca 8 rokov) na Debiane, neskor na Ubuntu serveri a nemal som ziadny problem. Zdvihol som verziu Ubuntu server z 14.04 na 16.04 a uz som nenabootoval. Skusal som preinstalovat system trikrat, no stale ten isty problem, system nie je schopny nabootovat, nemozno najst "volume group" (LVM). Ovladac SATA radicu sa loaduje po nabootovani, OS bezal s jednym internym IDE diskom a RAID pole som vytvaral vzdy po nabootovani manualne.
Skusal som toto iste spravit na virtualboxe VM. Nainstaloval som ubuntu server 16.04 i386 s forcepae parametrom na dva virtualne disky. Vytvoril som RAID1 pre /boot (ext4), LVM s /(ext4) na dalsom RAID1 and swap na tretom RAID1 poli. System nabootoval uspesne. Odstranil som jeden virtualny disk a system uz nie je schopny nabootovat.
chyba:
(http://i.stack.imgur.com/mHYwq.png)
finalny stav:
(http://i.stack.imgur.com/4pGcb.png)
Mozte mi prosim poradit? Dakujem
Aktualizacia:
Spravil som porovnanie medzi bootovanim s jednym and dvomi diskami
bootovanie s jednym diskom:
(http://i.stack.imgur.com/GqQk2.png)
bootovanie s dvomi diskami
(http://i.stack.imgur.com/IwkdI.png)
-
Zkusil bych klasiku https://help.ubuntu.com/community/Installation/SoftwareRAID#Boot_from_Degraded_Disk https://blog.karssen.org/2013/01/04/booting-an-ubuntu-server-with-a-degraded-software-raid-array/
-
Já bych zkusil nabootovat třeba grml a přes chroot to zkusit zprovoznit, jestli mu tam něco třeba nechybí.
-
Zkusil bych klasiku https://help.ubuntu.com/community/Installation/SoftwareRAID#Boot_from_Degraded_Disk https://blog.karssen.org/2013/01/04/booting-an-ubuntu-server-with-a-degraded-software-raid-array/
vdaka ... aspon nejake tipy. za 2h tu mam viac pozreti ako na tom askubuntu za 3 dni
nieco podobne som skusal, initramfs mi vsak nepozna update-initramfs -u
-
Jistě, že to neumí, proto je potřeba si to nabootovat z live cd chrootnout a můžeš na tom dělat operace jaký potřebuješ a různě to i testovat.
-
Pokud je to opravdu problém s odmítnutím bootu při degradovaném jádru, mělo by stačit pro ruční nabootování jen v tabulce grubu při bootu k dané položce připsat potřebný parametr k jádru (klávesa e) a bootnout přes F10.
Mám tam md-mod.start_dirty_degraded=1 .
-
Pokud je to opravdu problém s odmítnutím bootu při degradovaném jádru, mělo by stačit pro ruční nabootování jen v tabulce grubu při bootu k dané položce připsat potřebný parametr k jádru (klávesa e) a bootnout přes F10.
Mám tam md-mod.start_dirty_degraded=1 .
mas raid1? skusal som, neslo, googlil som https://www.kernel.org/doc/Documentation/md.txt (https://www.kernel.org/doc/Documentation/md.txt), pisu raid[56]
-
Jo, raid1. Koukám, že je to jen pro raid5/6. Nevím, raid1 mi bootuje degraded pořád (je to v zálohovacím serveru, kde se root kopíruje na offline disky pomocí synchronizace raid1).
Zkusil jsi ty ostatní parametry jádra v těch odkazech? Např. bootdegraded=true https://wiki.ubuntu.com/BootDegradedRaid#Implementation bod 9
Ještě bych se mrknul na http://serverfault.com/questions/688207/how-to-auto-start-degraded-software-raid1-under-debian-8-0-0-on-boot a https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=784070 , v tom shellu nahodí raid ručně, nastaví LVM a pustí boot dál.
-
Jistě, že to neumí, proto je potřeba si to nabootovat z live cd chrootnout a můžeš na tom dělat operace jaký potřebuješ a různě to i testovat.
nestiham sa tomu venovat naplno, pozrel som ten boot z grml, podarilo sa mi spustit mdadm, lvm, mount FS, no neviem, co presne tam mam zmenit
-
Jo, raid1. Koukám, že je to jen pro raid5/6. Nevím, raid1 mi bootuje degraded pořád (je to v zálohovacím serveru, kde se root kopíruje na offline disky pomocí synchronizace raid1).
Zkusil jsi ty ostatní parametry jádra v těch odkazech? Např. bootdegraded=true https://wiki.ubuntu.com/BootDegradedRaid#Implementation bod 9
Ještě bych se mrknul na http://serverfault.com/questions/688207/how-to-auto-start-degraded-software-raid1-under-debian-8-0-0-on-boot a https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=784070 , v tom shellu nahodí raid ručně, nastaví LVM a pustí boot dál.
diky moc za rady. mne ten raid1 chodil v degradovanom mode na 14.04 bez problemov a ladenia, dokonca aj na 16.04 isty cas. Az po nejakom update zacal pisat, ze nevie nabootovat, preto som reinstaloval a dopadol uplne rovnako. bootdegraded parameter pre kernel pomohol, presiel dalej, avsak stale bol raid v stave inactive. mdadm --run mi zmenil stav na active, cez vgchange som rozbehol LVM a uz len mount. nedal som mdadm hned zvysne raidy, swap stale nevidi. dokonca teraz aj nabootuje korektne, aj ked vyhladava nejake zariadenia. BOOT_DEGRADED=true v mdadm.conf nepozna. Este poskusam a dam vediet, ked sa niekam posuniem
-
To BOOT_DEGRADED=true má být v etc/initramfs-tools/conf.d/mdadm a rebuildnout initramfs. Není to parametr mdadm (tedy v /etc/mdadm/mdadm.conf), ale generování initramfs.
Máš aktuálně vygenerované definice raidů do /etc/mdadm/mdadm.conf ( mdadm --detail --scan >> mdadm.conf) a potom zkopírované do initramfs přes update-initramfs? To je klíčová věc, bez toho jsou s booty raidů vždycky problémy.
-
To BOOT_DEGRADED=true má být v etc/initramfs-tools/conf.d/mdadm a rebuildnout initramfs. Není to parametr mdadm (tedy v /etc/mdadm/mdadm.conf), ale generování initramfs.
Máš aktuálně vygenerované definice raidů do /etc/mdadm/mdadm.conf ( mdadm --detail --scan >> mdadm.conf) a potom zkopírované do initramfs přes update-initramfs? To je klíčová věc, bez toho jsou s booty raidů vždycky problémy.
dakujem, ze si to so mnou nevzdal :) cele si to skusam vo virtualboxe, dokonca som si ho rozbil, tak som si ho reinstalol a uz pouceny spravil snapshot. da sa s tym pracovat cez initramfs, nemusim cez grml. postupoval som takto
mdadm --stop /dev/md0
mdadm --stop /dev/md1
mdadm --stop /dev/md2
mdadm -A --run /dev/md0 /dev/sda1
mdamd -A --run /dev/md1 /dev/sda5
mdadm -A --run /dev/md2 /dev/sda6
vgchange VG0 -a y
mkdir chroot
mount -t ext4 /dev/VG0/LV_ROOT /chroot
mount -t ext4 /dev/md0 /boot
mount -t proc proc /chroot/proc
mount -t sysfs sys /chroot/sys
mount -o bind /dev /chroot/dev
chroot /chroot
swapon /dev/md2
update-initramfs -u
nasledne exit a reboot. OS nabehol uz sam, nemam namountovany jedine swap, ale nie je to problem doriesit po boote.
mdadm.conf vygenerovany cez mdadm --detail --scan sa lisi od /etc/mdadm/mdadm.conf v ceste. generovany obsahuje /dev/md/0 (az 2), konfig obsahuje /dev/md0 (az 2). ked som konfigurak prepisal vystupom toho prikazu, zasa som rozbil FS.
spravil som este jeden test, kedze ja budem vzdy pocas bootu bez druheho disku. pridal som druhy a on nabootoval dokonca s namountovanym swapom. ked som mu dal ten druhy disk prec, uspesne nabootoval, no bez namountovaneho swapu. ocakaval som, ze OS zisti, ze sa lisia tie particie a budem musiet rucne vyskladat pole. inak update-initramfs -u stale vypisuje chybu ohladom plymouth, co ma az tak netrapi.
s jednym diskom som spravil este apt-get update/upgrade, potom pridal druhy disk a OS uz RAID nevyskladal (vyskladal len pre swap). vyskladal som ho, vypol system, odpojil disk, zapol system. som tam, kde aj na zaciatku, opat skoncim po boote v initramfs. po update sa robil automaticky update-initramfs -u s dvomi diskami, cim si zmenil konfiguraciu. super je, ze si to viem fixnut, no pouzivam ten stroj vzdialene, teda robit reboot budem moct vzdy len osobne, ale aspon ho budem moct pouzivat. ten raid1 nad celym OS chcem z dovodu, ak by mi zakapal disk, aby som si nemusel instalovat nanovo system, hladat, co ako nakonfigurovat a nestratil tu trosku dat, co tam mam.
je toho uz vela, aj co i len na precitanie, ale ak by si mal este nejaky tip alebo hint pre mna, daj pls vediet. vdaka
-
Ked som sa zobudil, tak mi napadlo, ze systematickym riesenim pre mna bude manualne degradovat RAID pole pred aktualizaciou OS, ktora vyzaduje reboot. tym padom mi nezbehne update-initramfs nad RAIDom, system dokaze nasledne samostatne nabootovat a pole by som po reboote tak, ci tak vyskladaval.
vdaka pani
-
Na degradovaný raid1 běžně bootuju, takže to jde a není potřeba nic před rebootem měnit.
Je dobré mít při bootu v kompu disky, které nebyly v žádném jiném raidu, jen ty, co chceš. Systém si je při startu osahává zepředu zezadu (superblock raidu se zezadu partišny přesouval dopředu), takže je dobré, aby našel jen signatury raidů, které opravdu zná - tj. má je v /etc/mdadm/mdadm.conf v initramfs. Když nachází i disky ze starých / jiných, bývají při autoposkládání raidů problémy
Ten formát /dev/md/0 místo /dev/md0 v mdadm.conf jsem zaznamenal, hrál jsem si s tím, ale nepřišlo mi, že by to způsobovalo problém. Vytvořil se mi vždy /dev/md0.
Zkus si projet výstup blkid, zda tam nenajde UUIDs ještě něčeho jiného, co by tam být nemělo.
Ale je pravda, že jsem to nikdy neřešil s LVM.
-
PCMCIA SATA radic driver loaduje linux az po diskoch, preto sa mi vzdy pri boote ten RAID rozsype (vidi len jeden disk). Vobec nemenim HW, ani konfiguracie. Ako som pisal v uvode, vobec mi to nevadilo, restartujem len pri aktualizaciach a to som si vzdy doplnil. Fungoval som tak roky na debiane aj ubuntu server distribucii.
Mam pocit, ze az toto debian8 jadro (4.x) vzdy upravi initramfs podla pritomnych diskov. Aspon ten test na vmware mi to naznacuje. Rozpisem to
1. Prebehne update-initramfs RAIDu s dvoma diskami (ci uz po instalacii alebo pri aktualizacii kernelu).
2. Odpojim disk.
3. Boot OS musim rucne zotavit, spustit manualne update-initramfs.
4. Boot uz zbieha bez problemov, aj ked pridam druhy disk do raidu, ziadny problem.
5. Ak zbehne update kernelu, mam dva disky, zbehne update-initramfs, a jeden nasledne odpojim, musim sa rucne zotavit ako v bode 3)
Ak zbehne update kernelu, mam jeden disk odpojdeny, zbehne update-initramfs, system funguje dalej.
Nemenim ziadnu konfiguraciu, nic, len proste bootujem bez jedneho disku (prislusnych particii) a zrazu sa to rozbije. Tento problem som na starsich jadrach nikdy neriesil. Ved si to kludne skus cez nejaku virtualizaciu s poslednym jadrom ubuntu serveru.
Alebo ak mas toto jadro Linux nx9020 4.4.0-21-generic #37-Ubuntu SMP Mon Apr 18 18:34:49 UTC 2016 i686 i686 i686 GNU/Linux, odpoj jeden disk, ci ti nabootuje system sam. Ak nie, pripoj druhy, malo byt to ist automaticky.
Vdaka
-
S něčím podobným jsem si hrál (shodou náhod) také ve Virtualboxu s CentOS 6 v RAID1.
Tam je ještě starý GRUB (1).
Jedná se o to, že pokud fyzicky odpojíš jeden disk, GRUB (a snad initramfs) má zapsaný boot z /dev/sdb v případě výpadku disku. Protože jaksi sdb není (máš jen jeden disk = sda), není odkud provést boot.
Takže jsem měl GRUB instalovaný tak, aby ukazoval vždy na /dev/sda a grub.conf vypadal nějak takto:
default=0
timeout=5
fallback=4
#splashimage=(hd0,0)/boot/grub/splash.xpm.gz
hiddenmenu
#default=0
title CentOS (2.6.32-431.29.2.el6.x86_64)
root (hd0,0)
----------------------------------------------------
----------------------------------------------------
----------------------------------------------------
#fallback=4
title CentOS (2.6.32-431.29.2.el6.x86_64)
root (hd1,0)
Můžeš si jednoduše ověřit, že po "fyzickém" připojení jakéhokoliv - i čistého - disku vše najede.
A naopak, po odpojení disku sdb systém nenajede.
Teď už na to prdím, protože vím, že stačí provést shutdown -> "fyzicky" vyměnit disk za záložní -> boot -> cfdisk ->mdadm synchronizace -> install grub /> enjoy.
Ověřeno v "ostrém" provozu. -:)
-
Dakujem aj za tvoj postreh, ale som presvedceny, ze pripad, ktory popisujes, je trosku iny.
Mas pravdu, ze na CentOS6 je este "stary" grub, teda conf subory neporovnam. Mam aj nejake CentOS6 v prevadzke, ale tam mi zatial "nastastie" RAID nespadol, teda som zatial neriesil. Ja mam v uvedenom ubuntu server pripade /boot particiu ako RAID1 (/dev/sda1 a /dev/sdb1 ako /dev/md0) a grub pocas instalacie davam na oba disky (/dev/sda, /dev/sdb).
Spravil som jednoduchy test vo vboxe, aby som vyskusal, tvoje riesenie. Boot pri oboch zapojenych diskoch zbehne. Pri odpojenom "druhom" disku (sdb) neprejde. Rovnako ani pri odpojenom "prvom" disku (sda) neprejde.