Fórum Root.cz
Hlavní témata => Distribuce => Téma založeno: Tomas 11. 09. 2012, 14:19:17
-
Ahoj,
resim nasledujici problem:
Mam dva debiany na dvou fyzickych strojich. Potreboval bych je mit co nejvice synchronizovane (proste presna kopie vcetne dat). To znamena, ze pri vypadku jednoho stroje se system prepne na druhy stroj a nikdo nic nepozna. Nevite nekdo jak zajistit takovouto synchronizaci? Predem dekuji za Vase rady a nazory.
Tom
-
Asi bude zalezet take na tom, jaka data budete chtit synchronizovat. System sam by asi sel rsyncovat, i kdyz si nejsem jist, jak moc bude cilovy stroj rad, kdyz mu nekdo rsyncem za behu meni systemove soubory. Inteligentnejsi by asi bylo si prenest seznam balicku a zajistit, aby vzdy byly stejne nainstaloveny na cilovem stroji + syncnout /etc, asi s vyjimkou souboru specifickych pro dany stroj (hostname, nastaveni sitove adresy...). Ale data v otevrenych souborech se obecne syncuji spis blbe. A tak zalezi na tom, co je to za data, coz tu nepisete.
-
Dekuji za odpoved. Balicky se na strojich menit nebudou. Jde vlastne o uzivatelske soubory a databazi PostgreSQL nebo MySQL. Soubory bych asi klidne rsyncoval, ale netusim jak se to bude libit databazi. Tam asi spise pouziji replikaci DB. Spise me zajimalo jestli nekdo nevi o nejakem nastroji, ktery by to cloveku usnadnil. Predpokladam ze se s takovymto problemem potyka vice spravcu.
Tom
-
nu ty chces asi snapshot, ne? To umi treba lvm nebo xfs, btrfs, zfs a mozna i nektere dalsi fs?
Na prvnim stroji brat periodicky snapshoty a na druhej je kopirovat.
-
Pokial su to 2 stroje, urcite by som to riseil cez DRBD.
-
Hmm, tahle varianta me nenapadla. Muzes me trochu navest jak na to?
-
nu ty chces asi snapshot, ne? To umi treba lvm nebo xfs, btrfs, zfs a mozna i nektere dalsi fs?
Na prvnim stroji brat periodicky snapshoty a na druhej je kopirovat.
Muzes me navest trochu :-)
-
Snapshoty su na backup. Riesit synchronizaciu cez snapshoty je dost cudne.
Jednoznacne trba vyuzit bud zabudovanu funkcionalitu MySQL a PostgreSQL a nechat ich syncronizovat sa, alebo mat spravneu synchronizaciu na block device urovni.
-
Pokial su to 2 stroje, urcite by som to riseil cez DRBD.
Toto je asi pro me kanon na vrabce.
-
Konfiguracia DRBD na debiane je otazka 1 hodina aj s integrovanim do heartbeat konfiguracie.
Usetris si tym kopu starosti... Mas 1 zdielany disk + automaticky fencing. Doslovne sietovy RAID1.
-
Konfiguracia DRBD na debiane je otazka 1 hodina aj s integrovanim do heartbeat konfiguracie.
Usetris si tym kopu starosti... Mas 1 zdielany disk + automaticky fencing. Doslovne sietovy RAID1.
Diky, mrknu na to. Je pravda, ze to je systemove reseni.
-
Nebylo by lepší to řešit na aplikační úrovni? Databáze tohle umí a uživatelské soubory se dají dát na sdílené úložiště.
-
No lenze DRBD je na urovni blokovych zariadeni. Takze neviem ked budes menit na jednom stroji FS ktory je cez DRBD replikovany na druhy stroj, ci to na druhom stroji na FS uvidis
-
DRBD mozes nastavit tak aj tak... Lenze v takom pripade (multi-primary) musis mat na to vhody filesystem. Ja napriklad mam MySQL na xfs pod ktorym je DRBD (single-primary). Heartbeat mi v pripade vypadku prave primarnej nody prv mountuje fs a potom pusti mysql na druhej.
Aj tak si myslim ze je lepsie vyuzit na to moznosti aplikacie (mysql a postgres), pokial sa sama dokaze replikovat.
DRBD je skvele pre NFS cluster pokial clovek nema zaujem experimentovat s network file systemami ala lustrefs.
Na prvy dotaz hore by som odpovedal:
1) Nahodit 2 drbd [single primary] s ext4/xfs
2) Datadir jednej [mysql] databazy premigrovat na 1. drbd
3) Datadir druhej [postgres] databazy premigrovat na 2. drbd
4) Na jednej node by defaultne bezal prve drbd + service
5) Na druhej node by defaultne bezalo druhe drbd + service
6) Nahodit heartbeat
V pripade problemu jednej z node, ta druha do pol minuty preberie jej miesto... A to s PLNE aktualnymi datami. DRBD mas v defaultnom nastaveni tak ze caka na commit na lokalnych diskoch a aj na diskoch 2. nody. Cize ziaden dataloss.
-
DRBD mozes nastavit tak aj tak... Lenze v takom pripade (multi-primary) musis mat na to vhody filesystem. Ja napriklad mam MySQL na xfs pod ktorym je DRBD (single-primary). Heartbeat mi v pripade vypadku prave primarnej nody prv mountuje fs a potom pusti mysql na druhej.
Aj tak si myslim ze je lepsie vyuzit na to moznosti aplikacie (mysql a postgres), pokial sa sama dokaze replikovat.
DRBD je skvele pre NFS cluster pokial clovek nema zaujem experimentovat s network file systemami ala lustrefs.
Na prvy dotaz hore by som odpovedal:
1) Nahodit 2 drbd [single primary] s ext4/xfs
2) Datadir jednej [mysql] databazy premigrovat na 1. drbd
3) Datadir druhej [postgres] databazy premigrovat na 2. drbd
4) Na jednej node by defaultne bezal prve drbd + service
5) Na druhej node by defaultne bezalo druhe drbd + service
6) Nahodit heartbeat
V pripade problemu jednej z node, ta druha do pol minuty preberie jej miesto... A to s PLNE aktualnymi datami. DRBD mas v defaultnom nastaveni tak ze caka na commit na lokalnych diskoch a aj na diskoch 2. nody. Cize ziaden dataloss.
Diky, uz na tom pracuju.
-
Takze ak mas na node_1 ext4 FS pod ktorym je DRBD zariadenie, ked ho pripojis na node_2 a vytvoris na nom xfs filesystem, tak potom za ziva uvidis zmeny vo filesysteme na node_2 ? (node_1 RW, node_2 RO). To som predpokladal, ze to funguje iba tak ako si vravel. Az po namountovani.
-
Takze ak mas na node_1 ext4 FS pod ktorym je DRBD zariadenie, ked ho pripojis na node_2 a vytvoris na nom xfs filesystem, tak potom za ziva uvidis zmeny vo filesysteme na node_2 ? (node_1 RW, node_2 RO). To som predpokladal, ze to funguje iba tak ako si vravel. Az po namountovani.
2x som to precital, ale otazku nechapem.
Ak zapnes dual-primary rezim a na node jedna vytvoris na /dev/drbd0 nejaky filesystem [ext4] a nahodis tam data... A potom na node dva na /dev/drbd0 das vytvoris xfs, tak live uvidis ako ti miznu data na oboch nodach :) ano. Ale bola by to vcelku hlupost.
Ak mas dual-primary, tak sa zmeny prejavia na oboch nodach ihned. To ci je block device namountovany nic menei na veci... Zapisovat tam mozes aj na urovni block deviceu. Vsak uz samotny mkfs.xfs by na namoutovany filesystem ani nechcel bezat.
Dual primary rezim je ale urceny len pre filesystemy ktore s tym vedia robit! OCFS2, GFS... Ak by si na dual-primary drbd dal napriklad ext4 filesystem, obe strany moutoval a zacal robit zmeny, rozluc sa s tym filesystemom. To by si mal stastie ak by to fsck este niekedy dal dokopy.
Preto sa na normalne bezne pouzitie skor risi single-primary kde mas automaticky fencing. Cize jedna noda ti na tom istom drbd zariadeni nedovoli ist primary pokial uz je primary ta druha noda. Simple as that.
-
Sorry, ze som to napisal nezrozumitelne. Z tvojho prispevku niekde vyssie som pochopil, ze ide drbd provozovat v primary/primary mode s tym, ze nad tymi zariadeniami mas na obidvoch nodoch FS ktore su mountnuje RW. Presne tak ... nejde to.
Ja som skusal glusterfs, ktory nieco take dokaze ale mam webserver kde mam desatisice malych suborov a vtedy je GlusterFS uplne nepouzitelny. Este som skusal XtreemFS, ale s tymto som zatial nepochodil.
-
Sorry, ze som to napisal nezrozumitelne. Z tvojho prispevku niekde vyssie som pochopil, ze ide drbd provozovat v primary/primary mode s tym, ze nad tymi zariadeniami mas na obidvoch nodoch FS ktore su mountnuje RW. Presne tak ... nejde to.
Ja som skusal glusterfs, ktory nieco take dokaze ale mam webserver kde mam desatisice malych suborov a vtedy je GlusterFS uplne nepouzitelny. Este som skusal XtreemFS, ale s tymto som zatial nepochodil.
Ale ono to ide! A mam to aj nasadene experimentalne v labe. Jedina podmienka je --> pouzit filesystem ktory s tym rata <--. Ak pouzijes OCFS2 alebo GFS, mozes ist do dual-primary rezimu a na oboch stranach RW mountovat bez toho aby sa daco stalo. GFS riesenia myslim pouziva aj Oracle pre niektore svoje produkty, pre mna je to moc experimentalne.
-
Já se omlouvám za přikakání se do tématu, ale chci se poptat na DRBD. Mám doma stroj, na kterém jede apache + MySQL + slouží jako "sklad" drobností (fotky, dokumenty apod. dostupné do internetu). Chtěl bych mít zálohu (kopii) diskového oddílu s těmito věcmi (tedy PHP soubory, MySQL DB, "sklad") na jiném PC (běží jen někdy). Oddíl je namountovaný jako /var a je v něm vše o čem píšu. Hodí se DRBD i na tohle? Abych synchronizoval celý oddíl a to navíc jen když druhé PC je zapnuté? Funguje to obousměrně (změním to na PC, které jede občas a server si to sám hodí k sobě a naopak)?
-
Já se omlouvám za přikakání se do tématu, ale chci se poptat na DRBD. Mám doma stroj, na kterém jede apache + MySQL + slouží jako "sklad" drobností (fotky, dokumenty apod. dostupné do internetu). Chtěl bych mít zálohu (kopii) diskového oddílu s těmito věcmi (tedy PHP soubory, MySQL DB, "sklad") na jiném PC (běží jen někdy). Oddíl je namountovaný jako /var a je v něm vše o čem píšu. Hodí se DRBD i na tohle? Abych synchronizoval celý oddíl a to navíc jen když druhé PC je zapnuté? Funguje to obousměrně (změním to na PC, které jede občas a server si to sám hodí k sobě a naopak)?
Neodporucam. Tu ani rsync nie je moc dobry, pozri sa na unison.
-
Tu je celkom pekny navod ako na to: https://fedorahosted.org/cluster/wiki/DRBD_Cookbook
Ak by to spolahlivo fungovalo, tak by to bolo velmi pekne. Tebe sa to spolu s GFS chova nestabilne ?
-
Tu je celkom pekny navod ako na to: https://fedorahosted.org/cluster/wiki/DRBD_Cookbook
Ak by to spolahlivo fungovalo, tak by to bolo velmi pekne. Tebe sa to spolu s GFS chova nestabilne ?
Ja som to mal v ramci projektu HA pre vServre, kde GFS (aj OCFS2) sluzil ako backend pre File based storage pre vservre. (xen + file:). Toto riesenie bolo dost nestabilne a masiny si obcas navzajom prepisali svoj backend storage. Dovody sme vsak velmi neskumali. Nepredpokladam ze by to bolo koli DRBD + GFS, skor si myslim ze to bol problem starej verzie XEN hypervisora (pekne este jadra 2.6.18 a 2.6.24, xen verziu si nepamatam).
-
nevím jak daleko se toto téma dostalo ale tenhle odkaz by se někomu tady mohl i hodit..
http://www.howtoforge.com/high-availability-storage-with-glusterfs-3.2.x-on-ubuntu-12.04-automatic-file-replication-across-two-storage-servers
-
Inak ked sa tu uz zachadza az k glusterfs, ja sa mienim v nablizsej dobe (vo volnom case) v labe venovat hlavne CEPH. Uz dlho po tom pokukavam a dnes ked som cital o tej peknej dotacii mi dosli zase na um. Predsa len... In kernel... +OpenStak podpora. To sa fakt oplati vyskusat.