Ubuntu Server 16.04 poškozený SW RAID1 LVM

MichalS

Ubuntu Server 16.04 poškozený SW RAID1 LVM
« kdy: 09. 06. 2016, 07:11:08 »
Ahojte,

pisal som tento prispevok na askubuntu.com, no zatial ziadna odpoved, tak skusim este tu

Mam stary notebook hp nx9020. Chcem pouzivat RAID1, preto mam PCMCIA kartu - SATA radic and SATA disk na nom. Pouzivam tuto konfiguraciu uz niekolko rokov (cca 8 rokov) na Debiane, neskor na Ubuntu serveri a nemal som ziadny problem. Zdvihol som verziu Ubuntu server z 14.04 na 16.04 a uz som nenabootoval. Skusal som preinstalovat system trikrat, no stale ten isty problem, system nie je schopny nabootovat, nemozno najst "volume group" (LVM). Ovladac SATA radicu sa loaduje po nabootovani, OS bezal s jednym internym IDE diskom a RAID pole som vytvaral vzdy po nabootovani manualne.

Skusal som toto iste spravit na virtualboxe VM. Nainstaloval som ubuntu server 16.04 i386 s forcepae parametrom na dva virtualne disky. Vytvoril som RAID1 pre /boot (ext4), LVM s /(ext4) na dalsom RAID1 and swap na tretom RAID1 poli. System nabootoval uspesne. Odstranil som jeden virtualny disk a system uz nie je schopny nabootovat.

chyba:


finalny stav:


Mozte mi prosim poradit? Dakujem

Aktualizacia:
Spravil som porovnanie medzi bootovanim s jednym and dvomi diskami

bootovanie s jednym diskom:


bootovanie s dvomi diskami

« Poslední změna: 09. 06. 2016, 08:09:56 od Petr Krčmář »



wily

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #2 kdy: 09. 06. 2016, 08:37:57 »
Já bych zkusil nabootovat třeba grml a přes chroot to zkusit zprovoznit, jestli mu tam něco třeba nechybí.

MichalS

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #3 kdy: 09. 06. 2016, 09:11:48 »
Zkusil bych klasiku https://help.ubuntu.com/community/Installation/SoftwareRAID#Boot_from_Degraded_Disk https://blog.karssen.org/2013/01/04/booting-an-ubuntu-server-with-a-degraded-software-raid-array/

vdaka ... aspon nejake tipy. za 2h tu mam viac pozreti ako na tom askubuntu za 3 dni

nieco podobne som skusal, initramfs mi vsak nepozna update-initramfs -u

wily

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #4 kdy: 09. 06. 2016, 09:23:49 »
Jistě, že to neumí, proto je potřeba si to nabootovat z live cd chrootnout a můžeš na tom dělat operace jaký potřebuješ a různě to i testovat.


dustin

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #5 kdy: 09. 06. 2016, 10:22:13 »
Pokud je to opravdu problém s odmítnutím bootu při degradovaném jádru, mělo by stačit pro ruční nabootování jen v tabulce grubu při bootu k dané položce připsat potřebný parametr k jádru (klávesa e) a bootnout přes F10.

Mám tam  md-mod.start_dirty_degraded=1 .

MichalS

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #6 kdy: 09. 06. 2016, 12:13:47 »
Pokud je to opravdu problém s odmítnutím bootu při degradovaném jádru, mělo by stačit pro ruční nabootování jen v tabulce grubu při bootu k dané položce připsat potřebný parametr k jádru (klávesa e) a bootnout přes F10.

Mám tam  md-mod.start_dirty_degraded=1 .

mas raid1? skusal som, neslo, googlil som https://www.kernel.org/doc/Documentation/md.txt, pisu raid[56]

dustin

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #7 kdy: 09. 06. 2016, 12:36:22 »
Jo, raid1. Koukám, že je to jen pro raid5/6. Nevím, raid1 mi bootuje  degraded pořád (je to v zálohovacím serveru, kde se root kopíruje na offline disky pomocí synchronizace raid1).

Zkusil jsi ty ostatní parametry jádra v těch odkazech? Např.  bootdegraded=true https://wiki.ubuntu.com/BootDegradedRaid#Implementation bod 9

Ještě bych se mrknul na http://serverfault.com/questions/688207/how-to-auto-start-degraded-software-raid1-under-debian-8-0-0-on-boot a https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=784070 , v tom shellu nahodí raid ručně, nastaví LVM a pustí boot dál.

MichalS

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #8 kdy: 09. 06. 2016, 14:19:12 »
Jistě, že to neumí, proto je potřeba si to nabootovat z live cd chrootnout a můžeš na tom dělat operace jaký potřebuješ a různě to i testovat.

nestiham sa tomu venovat naplno, pozrel som ten boot z grml, podarilo sa mi spustit mdadm, lvm, mount FS, no neviem, co presne tam mam zmenit

MichalS

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #9 kdy: 09. 06. 2016, 14:25:12 »
Jo, raid1. Koukám, že je to jen pro raid5/6. Nevím, raid1 mi bootuje  degraded pořád (je to v zálohovacím serveru, kde se root kopíruje na offline disky pomocí synchronizace raid1).

Zkusil jsi ty ostatní parametry jádra v těch odkazech? Např.  bootdegraded=true https://wiki.ubuntu.com/BootDegradedRaid#Implementation bod 9

Ještě bych se mrknul na http://serverfault.com/questions/688207/how-to-auto-start-degraded-software-raid1-under-debian-8-0-0-on-boot a https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=784070 , v tom shellu nahodí raid ručně, nastaví LVM a pustí boot dál.

diky moc za rady. mne ten raid1 chodil v degradovanom mode na 14.04 bez problemov a ladenia, dokonca aj na 16.04 isty cas. Az po nejakom update zacal pisat, ze nevie nabootovat, preto som reinstaloval a dopadol uplne rovnako. bootdegraded parameter pre kernel pomohol, presiel dalej, avsak stale bol raid v stave inactive. mdadm --run mi zmenil stav na active, cez vgchange som rozbehol LVM a uz len mount. nedal som mdadm hned zvysne raidy, swap stale nevidi. dokonca teraz aj nabootuje korektne, aj ked vyhladava nejake zariadenia. BOOT_DEGRADED=true v mdadm.conf nepozna. Este poskusam a dam vediet, ked sa niekam posuniem

dustin

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #10 kdy: 09. 06. 2016, 16:03:32 »
To BOOT_DEGRADED=true má být v etc/initramfs-tools/conf.d/mdadm a rebuildnout initramfs. Není to parametr mdadm (tedy v /etc/mdadm/mdadm.conf), ale generování initramfs.

Máš aktuálně vygenerované definice raidů do /etc/mdadm/mdadm.conf ( mdadm --detail --scan >> mdadm.conf) a potom zkopírované do initramfs přes update-initramfs? To je klíčová věc, bez toho jsou s booty raidů vždycky problémy.

MichalS

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #11 kdy: 09. 06. 2016, 21:34:46 »
To BOOT_DEGRADED=true má být v etc/initramfs-tools/conf.d/mdadm a rebuildnout initramfs. Není to parametr mdadm (tedy v /etc/mdadm/mdadm.conf), ale generování initramfs.

Máš aktuálně vygenerované definice raidů do /etc/mdadm/mdadm.conf ( mdadm --detail --scan >> mdadm.conf) a potom zkopírované do initramfs přes update-initramfs? To je klíčová věc, bez toho jsou s booty raidů vždycky problémy.

dakujem, ze si to so mnou nevzdal :) cele si to skusam vo virtualboxe, dokonca som si ho rozbil, tak som si ho reinstalol a uz pouceny spravil snapshot. da sa s tym pracovat cez initramfs, nemusim cez grml. postupoval som takto

mdadm --stop /dev/md0
mdadm --stop /dev/md1
mdadm --stop /dev/md2

mdadm -A --run /dev/md0 /dev/sda1
mdamd -A --run /dev/md1 /dev/sda5
mdadm -A --run /dev/md2 /dev/sda6

vgchange VG0 -a y

mkdir chroot
mount -t ext4 /dev/VG0/LV_ROOT /chroot
mount -t ext4 /dev/md0 /boot

mount -t proc proc /chroot/proc
mount -t sysfs sys /chroot/sys
mount -o bind /dev /chroot/dev

chroot /chroot

swapon /dev/md2
update-initramfs -u


nasledne exit a reboot. OS nabehol uz sam, nemam namountovany jedine swap, ale nie je to problem doriesit po boote.

mdadm.conf vygenerovany cez mdadm --detail --scan sa lisi od /etc/mdadm/mdadm.conf v ceste. generovany obsahuje /dev/md/0 (az 2), konfig obsahuje /dev/md0 (az 2). ked som konfigurak prepisal vystupom toho prikazu, zasa som rozbil FS.

spravil som este jeden test, kedze ja budem vzdy pocas bootu bez druheho disku. pridal som druhy a on nabootoval dokonca s namountovanym swapom. ked som mu dal ten druhy disk prec, uspesne nabootoval, no bez namountovaneho swapu. ocakaval som, ze OS zisti, ze sa lisia tie particie a budem musiet rucne vyskladat pole. inak update-initramfs -u stale vypisuje chybu ohladom plymouth, co ma az tak netrapi.

s jednym diskom som spravil este apt-get update/upgrade, potom pridal druhy disk a OS uz RAID nevyskladal (vyskladal len pre swap). vyskladal som ho, vypol system, odpojil disk, zapol system. som tam, kde aj na zaciatku, opat skoncim po boote v initramfs. po update sa robil automaticky update-initramfs -u s dvomi diskami, cim si zmenil konfiguraciu. super je, ze si to viem fixnut, no pouzivam ten stroj vzdialene, teda robit reboot budem moct vzdy len osobne, ale aspon ho budem moct pouzivat. ten raid1 nad celym OS chcem z dovodu, ak by mi zakapal disk, aby som si nemusel instalovat nanovo system, hladat, co ako nakonfigurovat a nestratil tu trosku dat, co tam mam.

je toho uz vela, aj co i len na precitanie, ale ak by si mal este nejaky tip alebo hint pre mna, daj pls vediet. vdaka

MichalS

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #12 kdy: 10. 06. 2016, 06:21:50 »
Ked som sa zobudil, tak mi napadlo, ze systematickym riesenim pre mna bude manualne degradovat RAID pole pred aktualizaciou OS, ktora vyzaduje reboot. tym padom mi nezbehne update-initramfs nad RAIDom, system dokaze nasledne samostatne nabootovat a pole by som po reboote tak, ci tak vyskladaval.

vdaka pani

dustin

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #13 kdy: 11. 06. 2016, 14:38:32 »
Na degradovaný raid1 běžně bootuju, takže to jde a není potřeba nic před rebootem měnit.

Je dobré mít při bootu v kompu disky, které nebyly v žádném jiném raidu, jen ty, co chceš. Systém si je při startu osahává zepředu zezadu (superblock raidu se zezadu partišny přesouval dopředu), takže je dobré, aby našel jen signatury raidů, které opravdu zná - tj. má je v /etc/mdadm/mdadm.conf v initramfs. Když nachází i disky ze starých / jiných, bývají při autoposkládání raidů problémy

Ten formát /dev/md/0 místo /dev/md0 v mdadm.conf jsem zaznamenal, hrál jsem si s tím, ale nepřišlo mi, že by to způsobovalo problém. Vytvořil se mi vždy /dev/md0.

Zkus si projet výstup blkid, zda tam nenajde UUIDs ještě něčeho jiného, co by tam být nemělo.

Ale je pravda, že jsem to nikdy neřešil s LVM.

MichalS

Re:Ubuntu Server 16.04 poškozený SW RAID1 LVM
« Odpověď #14 kdy: 12. 06. 2016, 13:06:30 »
PCMCIA SATA radic driver loaduje linux az po diskoch, preto sa mi vzdy pri boote ten RAID rozsype (vidi len jeden disk). Vobec nemenim HW, ani konfiguracie. Ako som pisal v uvode, vobec mi to nevadilo, restartujem len pri aktualizaciach a to som si vzdy doplnil. Fungoval som tak roky na debiane aj ubuntu server distribucii.

Mam pocit, ze az toto debian8 jadro (4.x) vzdy upravi initramfs podla pritomnych diskov. Aspon ten test na vmware mi to naznacuje. Rozpisem to

1. Prebehne update-initramfs RAIDu s dvoma diskami (ci uz po instalacii alebo pri aktualizacii kernelu).
2. Odpojim disk.
3. Boot OS musim rucne zotavit, spustit manualne update-initramfs.
4. Boot uz zbieha bez problemov, aj ked pridam druhy disk do raidu, ziadny problem.
5. Ak zbehne update kernelu, mam dva disky, zbehne update-initramfs, a jeden nasledne odpojim, musim sa rucne zotavit ako v bode 3)
    Ak zbehne update kernelu, mam jeden disk odpojdeny, zbehne update-initramfs, system funguje dalej.

Nemenim ziadnu konfiguraciu, nic, len proste bootujem bez jedneho disku (prislusnych particii) a zrazu sa to rozbije. Tento problem som na starsich jadrach nikdy neriesil. Ved si to kludne skus cez nejaku virtualizaciu s poslednym jadrom ubuntu serveru.

Alebo ak mas toto jadro Linux nx9020 4.4.0-21-generic #37-Ubuntu SMP Mon Apr 18 18:34:49 UTC 2016 i686 i686 i686 GNU/Linux, odpoj jeden disk, ci ti nabootuje system sam. Ak nie, pripoj druhy, malo byt to ist automaticky.

Vdaka