Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - czechsys

Stran: 1 ... 23 24 [25] 26 27 ... 31
361
Server / SPF záznam + include a parametr MX
« kdy: 18. 10. 2019, 10:55:36 »
Zdravim,

mam pro domenu domain.tld toto v DNS:

1] domain.tld in txt "v=spf1 mx include:_spf.domain.tld ~all"
2] _spf.domain.tld in txt "v= spf1 mx ip4:ip1 ip4:ip2 ... ip4:ipX ?all"

A ted...kdyz to prozenu spf kontrolou na mxtoolbox.com, tak oba zaznamy jsou v poradku. Kdyz to ale prozenu dmarcanalyzer.com spf kontrolou, tak to vyhodi:

a] spf pro domain.tld je v poradku
b] spf pro _spf.domain.tld -> Warning: No valid MX record found for the domain _spf.cortex.cz

Udajne kvuli tomu jednomu zakaznikovi nechodi emaily. Zakaznici si ve svych spf zaznamech includuji prave to _spf.domain.tld.

Existuje moznost, jak 1] a 2] zapsat tak, aby v 2] byl MX zaznam? Protoze pokud budu potrebovat pro nektereho zakaznika mit odlisny spf zaznam, tak v soucasnem stavu by to znamenalo, ze je mx paramter k nicemu, protoze se neda pouzit (je to jen txt, kdo tvrdi, ze to je skutecna domena??).

362
Server / Re:Dostupnost dat z ukradených HDD ze Synology v RAID5
« kdy: 17. 10. 2019, 09:30:10 »
Odkud byly ti disky ukradeny?

363
Hardware / Re:HP a backplane s expanderem
« kdy: 07. 10. 2019, 15:31:26 »
Jak to rozlisim? Pripojuju do toho hotswap ramecky se sata ssd. To by mel byt single drive ne?

Na p420i mam nakonfigurovany R1 ze dvou ssd. H220 vidi ty dva disky jako samostatne...

364
Server / Re:Ansible - mount a chybějící modul
« kdy: 07. 10. 2019, 08:41:24 »
Kdyz ja prave binarky instaluju az v ramci role dane sluzby, nebot si tim i ta role kontroluje, ze jsou k dispozici...a nekontroluje zadnou jinou binarku - napr. nfs role nezajima, zda mam binarky samby...

Jeste pockam, zda nekoho neco napadne.

365
Hardware / Re:HP a backplane s expanderem
« kdy: 07. 10. 2019, 08:34:53 »
To znamena ze 10xSFF ma dual-port, normalni clovek by byl rad a pak v OS na to nasadil dm_multipath - https://en.wikipedia.org/wiki/Linux_DM_Multipath - at mu to prepina cesty samo az jeden radic nebo kabel selze.

Nj, ale ja bych potreboval vzhledem k rozdilnym typum pouziti radicu, aby to fungovalo jako jako u 8sff...

366
Hardware / HP a backplane s expanderem
« kdy: 04. 10. 2019, 16:48:12 »
Ahoj,

mam tu jednu HP DL360P G8 s 10x sff, takze backplane je s expanderem. Nevedel jsem, jak presne to maji udelany, ale plan byl, zapojit jeden sas port na interni p420i a druhy sas port na hba h220. A zde je kamen urazu...oproti 8x sff variante zde kazdy sas port vidi vsechny disky na backplane...cili:

8x sff:
sas port - p420i - vidi 4 sloty
sas port - h220 - vidi 4 sloty

10x sff:
sas port - p420i - vidi vsechny disky
sas port - h220 - vidi vsechny disky

Jde tomu nejak u te 10x sff zabranit, aby kazdy sas port videl jen danou skupinu disku, napr. 4+6 konfigurace?

Diky.

367
Server / Ansible - mount a chybějící modul
« kdy: 04. 10. 2019, 09:34:11 »
Ahoj,

pouzivam v ansible meta zavislosti v rolich. Mam tedy roli common, ktera spousti roli mounts, ktera namountuje prislusne adresare/disky podle parametru v host_vars. Problem je v tom, ze kdyz to mountovani vyzaduji dodatecny modul (nfs, samba, apod), tak tam ten modul jeste neni, nebot role pro instalaci (nfs,samba, apod) se spousti az pozdeji. Jak z toho ven? Instalovat to do "golden image" nema smysl kvuli rozdilnym potrebam. Defacto potrebuji aby v posloupnosti:
A]
(nfs, samba apod)
1] nainstaluj baliky pro sluzbu
2] nakonfiguruj mount point a aktivuj
3] nakonfiguruj zbytek sluzby

B]
(postgresql, apod)
1] nakonfiguruj mount point a aktivuj
2] nainstaluj baliky pro sluzbu

bylo mozne tu roli mounts zavolat. Jak je videt, jednou je potreba ji zavolat pred instalaci, jindy az po instalaci obsluznych programu sluzby. Jeste bych si umel predstavit, ze bych jednou mel "meta" a jindy "postrole" zavislosti, ale netusim jak. Nejaky tip?

Diky.

368
Server / Re:Ceph failure scenario
« kdy: 23. 09. 2019, 12:24:28 »
Vsechny tri servery jsou komplet ssd. Pri 3/2 a 3 nodech by k zadnemu presouvani pg nemelo dojit. Ani se to nedeje - ceph je ve stavu 2/2 ALE je tam xx vterin doba, kdy ceph posle iopsy na nulu.

Viz priloha (netdata snapshot) pri fio randrw ve VM a odstreleni jednoho ceph nodu natvrdo.

369
Server / Re:Ceph failure scenario
« kdy: 19. 09. 2019, 15:27:06 »
Kód: [Vybrat]
2019-09-19 15:23:15.079162 mon.pve-02 [INF] mon.pve-02 calling monitor election
2019-09-19 15:23:15.084649 mon.pve-01 [INF] mon.pve-01 calling monitor election
2019-09-19 15:23:20.089482 mon.pve-01 [INF] mon.pve-01 is new leader, mons pve-01,pve-02 in quorum (ranks 0,1)
2019-09-19 15:23:20.101932 mon.pve-01 [WRN] Health check failed: 1/3 mons down, quorum pve-01,pve-02 (MON_DOWN)
2019-09-19 15:23:20.109589 mon.pve-01 [WRN] overall HEALTH_WARN 1/3 mons down, quorum pve-01,pve-02
2019-09-19 15:23:51.061755 mon.pve-01 [INF] osd.4 failed (root=default,host=pve-03) (2 reporters from different host after 45.419694 >= grace 43.284224)
2019-09-19 15:23:51.061853 mon.pve-01 [INF] osd.5 failed (root=default,host=pve-03) (2 reporters from different host after 45.419658 >= grace 43.284224)
2019-09-19 15:23:51.066934 mon.pve-01 [WRN] Health check failed: 2 osds down (OSD_DOWN)
2019-09-19 15:23:51.067001 mon.pve-01 [WRN] Health check failed: 1 host (2 osds) down (OSD_HOST_DOWN)
2019-09-19 15:23:55.091491 mon.pve-01 [WRN] Health check failed: Degraded data redundancy: 42211/126633 objects degraded (33.333%), 256 pgs degraded (PG_DEGRADED)
2019-09-19 15:24:53.145278 mon.pve-01 [WRN] Health check update: Degraded data redundancy: 42211/126633 objects degraded (33.333%), 256 pgs degraded, 256 pgs undersized (PG_DEGRADED)

370
Server / Re:Ceph failure scenario
« kdy: 19. 09. 2019, 12:47:28 »
3 servery je málo, výpadek jednoho vždy způsobí kritický stav. Je to opravdu naprosté minimum.

Jinak ne - nesetkal jsem se s nějakým problémem, odstavení systému s daty negeneruje žádný lag. Zpětné sesynchronizování OSD mi probíhá v řádu sekund max minut.
Pokud ale bude málo replik systém se normálně zmrazí po dobu, než se dostane do konzistentního stavu. To je ale chyba administrátora.
Běžně odebírám OSD i celé servery za provozu.

Ahoj,

hraju si tu s cephem (PVE6/nautilus) v konfiguraci 3x pve node, kazdy node obsahuje mgr, mon, 2x OSD. Ceph backend je pres mesh na 10G siti, frontend pouziva 10G v lacp. Testovaci VM bezi na jednom z techto nodu.

A ted testovany scenar - tvrdy vypadek jednoho node. Behem testu bezel randrw fio na jedne VM, aby bylo videt, co to udela s diskem v cephu. Tvrdy vypadek node zpusobi, ze iowaity jsou na 100% zhruba 20+ sekund, cili zrejme tam uraduje defaultni "osd_hearbeat_grace = 20" a "osd_hearbeat_interval = 6". Pouziva to nekdo v takovehle konfiguraci, nebo to ma prenastaveny? Myslel jsem, ze preklopeni na sekundarni OSD/pgs je v ramci male chvile, takze me odstavka disku pro cely cluster v tak dlouhe dobe prekvapuje...

Diky.

Vim, 3 je malo, ale je to minimum. Replika je nastavena na 3/2. I pri tomhle by ten ceph mel zustat konzistentni (resp. presneji funkcni), ale ten lag je necekany.

371
Server / Re:Ceph failure scenario
« kdy: 19. 09. 2019, 12:46:17 »
Mám přesně tuhle konfiguraci co máš ty. 3x node pve/ceph 2x disk systém (hw raid) 2x disk pro osd

Tento scénář jsem zatím netestoval, pouze "smrt" nodu kde je nějaký server aby zafungovalo HA.
Můžu to zkusit tak jak popisuješ ty.
Čili jestli to dobře chápu máš nějaký VM, který ti běží třeba na nodu 1 a ty zabiješ node 3 a zajímá tě co to bude dělat s diskem v té VM?

Ano, presne tak. 3 servery, VM bezi na jednom z nich, zabiju node, na kterem ta VM zrovna nebezi.

372
Server / Re:Výkon NFS nad Cephem
« kdy: 19. 09. 2019, 12:43:18 »
Dik za testy. Nemas je ulozene? Zajimaly by me vice ty read/write kiops, nez bandwith, ale uz toho BW je videt, ze ten nfs byl fakt smutny. Aspon, ze to uz dohnal cephfs.

373
Server / Ceph failure scenario
« kdy: 18. 09. 2019, 09:24:37 »
Ahoj,

hraju si tu s cephem (PVE6/nautilus) v konfiguraci 3x pve node, kazdy node obsahuje mgr, mon, 2x OSD. Ceph backend je pres mesh na 10G siti, frontend pouziva 10G v lacp. Testovaci VM bezi na jednom z techto nodu.

A ted testovany scenar - tvrdy vypadek jednoho node. Behem testu bezel randrw fio na jedne VM, aby bylo videt, co to udela s diskem v cephu. Tvrdy vypadek node zpusobi, ze iowaity jsou na 100% zhruba 20+ sekund, cili zrejme tam uraduje defaultni "osd_hearbeat_grace = 20" a "osd_hearbeat_interval = 6". Pouziva to nekdo v takovehle konfiguraci, nebo to ma prenastaveny? Myslel jsem, ze preklopeni na sekundarni OSD/pgs je v ramci male chvile, takze me odstavka disku pro cely cluster v tak dlouhe dobe prekvapuje...

Diky.

374
Server / Re:Prioritizace lokálních účtů vůči doménovým
« kdy: 15. 09. 2019, 10:58:18 »
Protoze muzete mit spatne nastavene SSSD. Protoze kazdy auth system kontroluje podle poradi, zvlast ve chvili, kdy tam neni prepinadlo na ruzne typy auth (login do konzole).

375
My to resime cronem a ansiblem, ktery proste synchronizuje centralni ulozni misto s klientama. Pouzivame dehydrated pro plneni challengu, coz je ciste bashovska implementace certbota. (tady me trochu znejistila otazka vyse). Puvodne jsme to delali z centralniho nodu, ale ted se nam velmi osvedcilo dynamicke pridavani DNS TXT zaznamu. A do budoucna planujeme generovat DNS klic pro kazdej stroj a budou si to delat cele samy.

Zhruba takhle to vidim. Ale prave ten deployment...jak resite vazbu vztah certifikat/typ sluzby/konkretni server?

Stran: 1 ... 23 24 [25] 26 27 ... 31