Fórum Root.cz

Hlavní témata => Server => Téma založeno: k.pavel 23. 04. 2021, 13:15:23

Název: NFSv4 na CentOS 7.9 Pacemaker Clusteru
Přispěvatel: k.pavel 23. 04. 2021, 13:15:23
Vážení kolegové a nadšenci.

Postavil jsem dvou nodový Pacemaker cluster na OS CentOS 7.9, na kterém testuji vysokou dostupnost služby NFS 4.2. Služba NFS4 již plně pracuje na TCP. Do nižší verze než je verze 4.0 nemůžeme jít, protože nepodporuje námi požadované ACL. Při této příležitosti jsem narazil na zajímavý problém s rychlostí obnovení navázané komunikace mezi serverem a klientem, při přepnutí virtuální IP adresy z jedno nodu na druhý.
Nody mají připojený iSCSI disk s LVM, tento disk se exportuje pro NFS sdílení. Celé to zastřešuje virtuální IP adresa. Je také použit parametr pro sdílení stavových informací pro NFS, je umístěn na iSCSI svazku, který je připojen na obou nodech.
Konfigurace clusteru je následující (jedná se o skupinu):

Kód: [Vybrat]
  Resource: lvm (class=ocf provider=heartbeat type=LVM)
   Attributes: exclusive=true volgrpname=data

  Resource: iscsidrive (class=ocf provider=heartbeat type=Filesystem)
   Attributes: device=/dev/mapper/data directory=/mnt/data fstype=xfs

  Resource: nfs-daemon (class=ocf provider=heartbeat type=nfsserver)
   Attributes: nfs_no_notify=true nfs_shared_infodir=/mnt/data/nfsconf nfsd_args="-N2 -N3 -V4 --grace-time 10"

  Resource: nfs-share (class=ocf provider=heartbeat type=exportfs)
   Attributes: clientspec=10.0.0.0/255.0.0.0 directory=/mnt/data/data/ fsid=1 options=rw,sync,no_root_squash

  Resource: nfs_ip (class=ocf provider=heartbeat type=IPaddr2)
   Attributes: cidr_netmask=24 ip=10.0.0.100

/etc/nfs.conf

Kód: [Vybrat]
[nfsd]
vers4=y
vers4.2=y

konfigurace v /etc/sysconfig/nfs je dynamicky upravovaná pomocí resource ocf:heartbeat:nfsserver pacemakerem (viz. parametr nfsd_args a nfs_no_notify)

použité balíčky na nodech:

Kód: [Vybrat]
libnfsidmap-0.25-19.el7.x86_64
corosync-2.4.5-7.el7_9.1.x86_64
nfs-utils-1.3.0-0.68.el7.x86_64
corosync-qdevice-2.4.5-7.el7_9.1.x86_64
corosynclib-2.4.5-7.el7_9.1.x86_64
resource-agents-4.1.1-61.el7_9.8.x86_64
kernel: Linux node 3.10.0-1160.21.1.el7.x86_64 #1 SMP Tue Mar 16 18:28:22 UTC 2021 x86_64 x86_64 x86_64 GNU/Linux

použité balíčky na nfs klientovi:

Kód: [Vybrat]
libnfsidmap-0.25-19.el7.x86_64
nfs-utils-1.3.0-0.68.el7.x86_64
Linux nfs-client 3.10.0-1160.21.1.el7.x86_64 #1 SMP Tue Mar 16 18:28:22 UTC 2021 x86_64 x86_64 x86_64 GNU/Linux

Nebudu se rozepisovat o stonith, protože ten funguje v rámci možností našeho virtuálního prostředí poskytovatele.

Nyní k problému. Dobu výpadku jsem testoval tak, že jsem si napsal skript, který na NFS klientovi otevřel soubor pro zápis a každou sekundu zapisoval do tohoto souboru datum s časem, aniž by se soubor uzavřel. Zároveň jsem z tohoto souboru četl pomocí tail -f. Při odstavení jednoho nodu clusteru pomocí pcs standby node1 se prvně zastaví služby na stroji node1 a následně se nastartují služby na stroji node2. Celá tato akce časově zabere max. 15s. Při prvním výpadku od připojení sdíleného svazku, trvá na klientovi přerušení zápisu cca. 20s. Při dalším obnovení node1 pcs unstandby node1 a následném shozením služeb na stroji node2 již tento výpadek není 20s, ale zhruba 3,5min. Tato doba se dalšími shozeními již nemění. Až do doby, kdy provedu umount sdílené složky a nový mount. Vždy po prvním shození aktivního nodu se reset spojení a obnovení komunikace mezi klientem a serverem provede do 20s.
Protože potřebuji tuto službu pokud možná s co nejkratším výpadkem a 3,5min je opravdu dost dlouho, začal jsem zjištovat co se děje po dobu výpadku.

Z tcpdumpu jsem zjistil, že virtuální switch správně identifikuje, že se změnila MAC adresa virtuální ipadresy 10.0.0.100 a packety se začnou směřovat na správný stroj. Je zřejmé, že nový stroj neví co má s TCP stackem, který byl určen pro původní stroj dělat a tak na něj nereaguje. A tak čeká na reset spojení. Ten ovšem přijde vždy až po 8. retransmissi packetu což odpovídá cca 3,5min. RTO, které je dané normou RFC793, není dost možné změnit, protože je dynamicky ovlivněné stavem linky a doba do retransmisse se každou další retransmissí dvojnásobí. Počet retransmissí, které je možné do jisté míry ovlivnit, se mi nijak nepodařilo u NFS změnit. I přes nastavené parametry mountu klienta timeo=3 a retrans=1 a sysctl nastavení net.ipv4.tcp_retries2=3 se změna počtu retransmissí nijak nezměnila. Testoval jsem zda změna hodnoty net.ipv4.tcp_retries2 opravdu funguje a např. u SSH se opravdu spojení zresetovalo po 3. retransmissi packetu, ale NFS tuto volbu ignoruje. Toto ovšem neplatí při první odstávce jednoho z aktivních nodů, po novém mountu sdílené složky. Zde je pouze 5 retransmissí, po kterých se spojení resetuje. Stejně tak se to chová i po delší přestávce testování (když se např. 1 den nody nevypínají a nezapínají).

Také jsem zkoušel sychronizaci tcp stavů pomocí resource ocf:heartbeat:conntrackd. Pomocí služby conntrackd a jejích informací je vidět, že se stavy korektně předávají na druhý server, ale aplikace stejně čeká na reset tcp spojení.

Proto prosím o radu co jsem v konfiguraci přehlédl a nebo spatně nastavil, že se mi cluster takto podivně chová.

Předem děkuji za názory a nápady.
Název: Re:Problém s NFSv4 na Centos 7.9 Pacemaker Clusteru
Přispěvatel: czechsys 23. 04. 2021, 14:38:42
Hm a vedi ti klienti, ze se zmenila mac te virtualky? Neni problem v tom virtualnim switchi?

Mam 2 node nfs server nad deb9 taky s pcm, ale tyhle problemy neexistovaly.
Název: Re:NFSv4 na CentOS 7.9 Pacemaker Clusteru
Přispěvatel: Jose D 23. 04. 2021, 15:09:00
mě není jasný jak u NFSv4 dojde k přenosu stavu (locky) mezi servery...
Vím, že u NFSv3 to jde, když máš shared IP, jedeš přes UDP a máš na sdíleném storage, myslím že, /var/lib/nfs..

@czechsys:

tobě to jede na nfs4+, tcp a jsi schopný udělat transparentní failover za provozu?

Měl jsem za to, že u NFSv4 bez proprietárního serveru (pNFS?) HA udělat nejde, ale určitě bych si to rád nechal rozmluvit a zjistil jak to jde.
Název: Re:NFSv4 na CentOS 7.9 Pacemaker Clusteru
Přispěvatel: k.pavel 23. 04. 2021, 15:30:16
@czechsys:
Zřejmě se jedná o konfiguraci NFS3, kde existuje notifikace klientu, že je nějaká změna, ale u NFS4 to není.

@Jose D:
Z dokumentace ocf:heartbeat:nfsserver není zřejmé, že by sdílení stavů NFS bylo omezováno verzí NFS. V každém případě nemůžu potvrdit, že se aplikační stavy přenáší. Faktem ovšem je, že vytvořené soubory v tomto sdíleném adresáři mají aktuální datum a čas.
Název: Re:NFSv4 na CentOS 7.9 Pacemaker Clusteru
Přispěvatel: czechsys 23. 04. 2021, 15:35:01
mě není jasný jak u NFSv4 dojde k přenosu stavu (locky) mezi servery...
Vím, že u NFSv3 to jde, když máš shared IP, jedeš přes UDP a máš na sdíleném storage, myslím že, /var/lib/nfs..

@czechsys:

tobě to jede na nfs4+, tcp a jsi schopný udělat transparentní failover za provozu?

Měl jsem za to, že u NFSv4 bez proprietárního serveru (pNFS?) HA udělat nejde, ale určitě bych si to rád nechal rozmluvit a zjistil jak to jde.

Ano, mam nfs4 nad tcp.

Mam /var/lib/nfs jako symlink odkazujici na exportovany drbd disk, takze po prehozeni disku pacemakerem jiz startujici nfs vidi obsah toho adresare na novem masteru tak, jak ho videl puvodni master. Navic nfs4 pouziva urcitou logiku pro locky (viz grace-time v uvodnim prispevku), takze se locky poresi.

Transparentni failover jsem schopen provest s minimalni dobou vypadku 10s + delta, kde delta zavisi na dobe preklopeni drbd/nfs atd.
Název: Re:NFSv4 na CentOS 7.9 Pacemaker Clusteru
Přispěvatel: czechsys 23. 04. 2021, 15:42:18
@czechsys:
Zřejmě se jedná o konfiguraci NFS3, kde existuje notifikace klientu, že je nějaká změna, ale u NFS4 to není.

Nemyslim si (navic nfs3 mam sice zapnute z urcitych duvodu, ale vsichni klienti mountuji nfs4 only)

Ten klient navazuje s spojeni s virtual switchem nebo s nfs serverem? Protoze kazde spojeni se navazuje na kombinaci ip/mac. Takze pokud je to klient, tak v pripade zmeny mac na to musi neco zareagovat a tedy se tu zmenu musi dozvedet ze site.
Název: Re:NFSv4 na CentOS 7.9 Pacemaker Clusteru
Přispěvatel: k.pavel 23. 04. 2021, 16:10:22

Nemyslim si (navic nfs3 mam sice zapnute z urcitych duvodu, ale vsichni klienti mountuji nfs4 only)

Protoze kazde spojeni se navazuje na kombinaci ip/mac. Takze pokud je to klient, tak v pripade zmeny mac na to musi neco zareagovat a tedy se tu zmenu musi dozvedet ze site.
Existuje resource ocf:heartbeat:nfsnotify - sm-notify reboot notifications
s timto popisem:
This agent sends NFSv3 reboot notifications to clients which informs clients to reclaim locks.
Ten ale podle mě na NFS4 nebude mít žádný vliv. Tato resource komunikuje skrz RPC službu pomocí UDP. V mém případě je veškerá UDP komunikace u NFS4 vypnuta.

Ten klient navazuje s spojeni s virtual switchem nebo s nfs serverem?
Klient se připojuje přímo k virtuální IP serveru v článku to je IP 10.0.0.100
Název: Re:NFSv4 na CentOS 7.9 Pacemaker Clusteru
Přispěvatel: k.pavel 26. 04. 2021, 11:24:40

Mam /var/lib/nfs jako symlink odkazujici na exportovany drbd disk, takze po prehozeni disku pacemakerem jiz startujici nfs vidi obsah toho adresare na novem masteru tak, jak ho videl puvodni master. Navic nfs4 pouziva urcitou logiku pro locky (viz grace-time v uvodnim prispevku), takze se locky poresi.

Transparentni failover jsem schopen provest s minimalni dobou vypadku 10s + delta, kde delta zavisi na dobe preklopeni drbd/nfs atd.

Mohl bych Vás poprosit o uveřejnění Vašich použitých resource a jejich konfiguraci? Pravě jsem otestoval odstranění parametru nfs_shared_infodir=/mnt/data/nfsconf (kde /mnt/data je sdílený LVM svazek umístěný na iSCSI mezi oběma nody). Ten jsem nahradil symlinkem /var/lib/nfs který směřuje do /mnt/data/nfsconf. Při této konfiguraci, se mi ovšem nespustí resource ocf:heartbeat:nfsserver. Zkoušel jsem také spustit samostatně službu NFS serveru a ta se mi spustila, takže to vypadá, že parametr nfs_shared_infodir je zřejmě povinný pro spuštění této resource. Spuštění resource v této konfiguraci, končí hlášením "unknown error".

Jinak co se týká přepnutí IP tak tam zřejmě chyba nebude, protože jak jsem psal virtuální router pošle broadcastový packet s informací o změně MAC a packety se začnou směrovat na nově zaktivovaný node.
Název: Re:NFSv4 na CentOS 7.9 Pacemaker Clusteru
Přispěvatel: czechsys 26. 04. 2021, 12:15:44
crm configure show:
Kód: [Vybrat]
primitive nfs-kernel-server systemd:nfs-server \
        meta target-role=Started
Název: Re:NFSv4 na CentOS 7.9 Pacemaker Clusteru
Přispěvatel: k.pavel 28. 04. 2021, 13:35:18
crm configure show:
Kód: [Vybrat]
primitive nfs-kernel-server systemd:nfs-server \
        meta target-role=Started
Chtěl bych Vám poděkovat za poslání konfigurace. Zkoušel jsem svůj cluster postavit nad touto resource, ale výsledek je pořád ten samý. Po prvním mountu klienta je přepnutí do 20s, ale další přepnutí nodů trvá 3,5min. Místo /var/lib/nfs jsem vyrobil symlink, který směřoval do adresáře ve svazku postaveném na iSCSI, který je dostupný z obou nodů. Zkoušel jsem také NFS klienta provozovaném na Debianu 10.9 tam byla první odezva po mountu také 20s, ale další timeouty byly pouze 1,5min což je lepší, ale pořád se mi to nelíbí. Stejně tak se to chovalo i nad CentOS 8.

Mohl bych Vás ještě poprosit o informaci, zda Váš cluster běží ve virtuálním prostředí a jakém? A nebo zda běží na fyzickém železe?
Předem děkuji za odpověď.
Název: Re:NFSv4 na CentOS 7.9 Pacemaker Clusteru
Přispěvatel: czechsys 29. 04. 2021, 08:07:28
klient mountuje takto:
Kód: [Vybrat]
nfs4 vers=4.0,minorversion=2,noauto,x-systemd.automount,x-systemd.device-timeout=10,timeo=14,actimeo=1,x-systemd.idle-timeout=60min 0 0

Zkusil jste povolit nfs3 na zkousku, jak by se to chovalo? NFS cluster nemam virtualizovany.