Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Témata - czechsys

Stran: [1] 2 3 ... 7
1
Cau,

Mam standardni sablonu pro monitoring rabbitmq front, jednotlive fronty se generuji pres discovery. Potreboval bych rozlisit fronty podle jmena (prefix), abych mohl nastavit ruznou casovou hodnotu pro (nyni) 1 trigger. Jak nejsnaze toho dosahnout i z hlediska pripadneho rozlisovani podle vice jmen (prefix)?

- napadlo me dat to primo do podminky, asi by bylo mozne pouzit find(), ale casova hodnota se pak neprenese do nazvu triggeru (to je kdyztak drobnost). Jen mi to pripada trochu slozitejsi a uplne ne nejvhodnejsi varianta z hlediska zabbixu
- zkusil jsem naklonovat ten discovery proces, ale bohuzel to neklonuje prototypy, takze bych musel vse "prepsat" rucne, je to desitky prototypu
- nasel jsem info, ze lze naklonovat sablonu, z toho vsechno vyhazet, pak to propojit s puvodni sablonou. Uplne jsem z toho nepochopil, co vse bych musel vyhazet, a hlavne, spis bych to chtel vlozit do te aktualni sablony, nez to propojovat.

Nejjednodussi varianta, mit 2 sablony, kde se nekde pres makra zvolim ty "prefix" parametry, zni nejjednoduseji, ale logicky, ze vypocetne/datove nejnarocneji. Nemluve o budouci udrzbe samotnych sablon z hlediska aktualizace zabbixu.

Nejaky tip? Diky

2
Server / Forward proxy, která umí zakázat IPv6
« kdy: 03. 04. 2025, 09:21:53 »
Cau,

squid nechce a neumi zakazat odchozi provoz pro ipv6 na dualstack serveru. Existuje spolehliva proxy, ktera by toto umela? Hodilo by se mi tam dualstack mit a neomezit cely server jen na ipv4.

Nasel jsem zatim simpleproxy,privoxy, atd, ale neznam je.

Diky

3
Cau,

potreboval bych zalohovat ELK cluster, momentane nemame zadne S3. Nez pujdu cestou nfs/samba, tak se radsi zeptam, zda je nejake jednoducha (1 serverova) S3 implementace k dispozici.

Diky.

4
Distribuce / Debian 12 Podman: dual-stack na výchozí síti
« kdy: 28. 03. 2025, 11:00:04 »
Ahoj,

da se nejak nastavit, aby defaultni bridge byl dualstack? Je to verze debian 12, takze 4.3.1. At jsem si hral slirp4netns, netavark jakkoli, tak  v rootless kontejner funguje pres slirp4netns. Ale nedari se mi nastavit defaultni konfiguraci v /etc/cni/net.d/87-somefilename, abych nemusel vytvaret v uzivateli novou sit s podporou ipv6. I kdyz ten soubor upravim, uzivatel ma vzdy jen ipv4 verzi.

Diky

5
Server / Dell PR8 Device not detected
« kdy: 13. 03. 2025, 08:42:28 »
Cau,

po aktualizaci iDrac na 3.30.30.30 (a nasledne 7.00.00.174) mi zmizela integrovana sitovka, viz PR8 polozka. Dival jsem se do idrac na nastaveni biosu, v menu Integrated Devices mam vsechny sloty na Enabled.

Kód: [Vybrat]

2025-03-11 05:00:08 PR36 Version change detected for Broadcom Adv. Dual 10Gb Ethernet - 00:0A:F7:EB:4D:11 firmware. Previous version:20.06.05.11, Current version:23.11.16.22
2025-03-11 05:00:04 PR36 Version change detected for Broadcom Adv. Dual 10Gb Ethernet - 00:0A:F7:EB:4D:10 firmware. Previous version:20.06.05.11, Current version:23.11.16.22
2025-03-11 05:00:03 PR36 Version change detected for Broadcom Gigabit Ethernet BCM5720 - 00:0A:F7:BF:44:85 firmware. Previous version:20.6.52, Current version:23.11.4
2025-03-11 05:00:02 PR36 Version change detected for Broadcom Gigabit Ethernet BCM5720 - 00:0A:F7:BF:44:84 firmware. Previous version:20.6.52, Current version:23.11.4
2025-03-11 04:59:52 PR8 Device not detected: Broadcom Adv. Dual 10Gb Ethernet - 00:0A:F7:BF:44:86(Integrated 1-1-1)
2025-03-11 04:59:52 PR8 Device not detected: Broadcom Adv. Dual 10Gb Ethernet - 00:0A:F7:BF:44:87(Integrated 1-2-1)
2025-03-11 04:55:43 SUP0518 Successfully updated the Broadcom NetXtreme Gigabit Network Adapter (NX1) - UPDATE firmware to version 23.11.4.
2025-03-11 04:54:13 SUP0516 Updating firmware for Broadcom NetXtreme Gigabit Network Adapter (NX1) - UPDATE to version 23.11.4.
2025-03-11 04:54:02 SUP0518 Successfully updated the Broadcom BCM57412/BCM5720 10G SFP/1G BT Quad Port rNDC firmware to version 23.11.16.22.
2025-03-11 04:52:39 SUP0516 Updating firmware for Broadcom BCM57412/BCM5720 10G SFP/1G BT Quad Port rNDC to version 23.11.16.22.
2025-03-11 04:52:38 SUP0518 Successfully updated the Broadcom BCM57412 10G SFP Dual Port PCIE adapter firmware to version 23.11.16.22.
2025-03-11 04:50:56 SUP0516 Updating firmware for Broadcom BCM57412 10G SFP Dual Port PCIE adapter to version 23.11.16.22.
2025-03-11 04:31:43 RED036 Firmware updates are available : Broadcom Gigabit Ethernet BCM5720 - 00:0A:F7:BF:44:84.
2025-03-11 04:31:43 RED036 Firmware updates are available : Broadcom Adv. Dual 10Gb Ethernet - 00:0A:F7:EB:4D:10.

Server jako takovy byl plne aktualizovan pres idrac z hlediska firmware a prosel i nekolika automatickymi boot cykly.
Pokud se s tim uz nekdo setkal, jaky postup byl ozivit chybejici HW? Odpojit masinu od napajeni? Integrovanou sitovku tezko premistim do jineho slotu.

Diky

6
Server / PostgreSQL log: Missing required python module: lz4
« kdy: 10. 02. 2025, 10:43:45 »
Ahoj,

pro zalohovani pouzivam barman. V nem mam uvedeno pro kompresi WAL:
Kód: [Vybrat]
custom_compression_filter = lz4 -c
custom_decompression_filter = lz4 -c -d

Pri vypadku jednoho serveru s delsim casovym oknem se v logu postgresql objevuje problem s python lz4. Kdyz to zkousim z cli:
Kód: [Vybrat]
/usr/bin/barman-wal-restore -p 32 -U BARMAN_USER BARMAN_HOST POSTGRESQL_HOST 00000001000023AA000000FA /tmp/barman/00000001000023AA000000FA.wal
Missing required python module: lz4
Missing required python module: lz4

Na debian 11 jsem zkusil doinstalovat/testovat balicky lz4, python3-lz4, python3-lz4tools, restartovat, ale v zadnem pripade se ta lz4 podpora neprojevi. Pip na tyhle veci nepouzivam a zkouset nechci.

Kód: [Vybrat]
# python3 -m lz4
/usr/bin/python3: No module named lz4.__main__; 'lz4' is a package and cannot be directly executed

Package: python3-lz4                     
Version: 3.1.3+dfsg-1
State: installed

Kód: [Vybrat]
p   golang-github-bkaradzic-go-lz4-dev                                                   - port of the LZ4 lossless compression algorithm to Go                                         
p   golang-github-pierrec-lz4-dev                                                        - LZ4 compression and decompression in pure Go                                                 
p   libcompress-lz4-perl                                                                 - Perl interface to the LZ4 (de)compressor                                                     
i   liblz4-1                                                                             - Fast LZ compression algorithm library - runtime                                               
p   liblz4-dev                                                                           - Fast LZ compression algorithm library - development files                                     
p   liblz4-java                                                                          - LZ4 compression for Java                                                                     
p   liblz4-jni                                                                           - LZ4 compression for Java (JNI library)                                                       
p   liblz4-tool                                                                          - Fast LZ compression algorithm library - transitional package                                 
p   libroslz4-1d                                                                         - library implementing lz4 for Robot OS                                                         
p   libroslz4-dev                                                                        - development files for libroslz4                                                               
i   lz4                                                                                  - Fast LZ compression algorithm library - tool                                                 
p   lz4json                                                                              - unpack lz4json files, usually generated by Mozilla programs                                   
p   php-horde-lz4                                                                        - Horde LZ4 Compression Extension                                                               
i   python3-lz4                                                                          - Python interface to the lz4 compression library (Python 3)                                   
p   python3-lz4tools                                                                     - Tools for working with LZ4 compression algorithm.                                             
p   python3-roslz4                                                                       - Python 3 library implementing lz4 for Robot OS                                               
v   python3-roslz4:any                                                                   -                                                                                               
v   python3.9-roslz4                                                                     -                                                                                               
v   python3.9-roslz4:any   

Co tam chybi? Netusi nekdo?
Diky

7
Server / Monitoring ASUS iKVM IPMI/SNMP
« kdy: 22. 01. 2025, 12:06:07 »
Ahoj,

nema nekdo s timhle nejake zkusenosti? Dokumentace je zoufala a na google se mi to moc nechyta. Napr. u snmp nevim, jaka je na tom ikvm verze, nebo jake nastaveni "privilege (channel X)" uzivatel potrebuje. Vzhledem k tomu, ze zabbix template pro snmp ani ilo pro ASUS nema, tak je tezke dohledat, jak to vlastne pouzit, urcite to zase bude vendor specificke...


8
Server / Generování klientského certifikátu pro PostgreSQL
« kdy: 05. 12. 2024, 12:29:26 »
Ahoj,

rychlodotaz. Zkousim ruzne navody na generovani overeni uzivatele pres klientske certifikaty do postgresql pres openssl.

Funkcni: https://docs.devart.com/studio-for-postgresql/connecting-to-db/generating-ssl-certificate.html

tzn, vygenerovani server.crt a jeho pouziti jako root.crt, klient vygenerovany proti server crt

Nefunkcni: pridani intermediate certifikatu
1]
vygenerovani root.crt
vygenerovani root.crt -> intermediate.crt
vygenerovani root.crt -> intermediate.crt -> server.crt
vygenerovani root.crt -> intermediate.crt -> client.crt

chyba:
Kód: [Vybrat]
2024-12-05 12:12:09.574 CET [145340] [unknown]@[unknown] LOG:  could not accept SSL connection: certificate verify failed
2024-12-05 12:12:09.574 CET [145340] [unknown]@[unknown] DETAIL:  Client certificate verification failed at depth 1: unable to get issuer certificate.
Failed certificate data (unverified): subject "/CN=IntermediateA1A", serial number 309702439278542523809315669172409373896084017275, issuer "/CN=RootA1".

2]
vygenerovani root.crt
vygenerovani root.crt -> intermediate.crt
vygenerovani root.crt -> intermediate.crt -> server.crt
vygenerovani root.crt -> client.crt

chyba:
Kód: [Vybrat]
2024-12-05 12:03:35.322 CET [144691] [unknown]@[unknown] LOG:  could not accept SSL connection: certificate verify failed
2024-12-05 12:03:35.322 CET [144691] [unknown]@[unknown] DETAIL:  Client certificate verification failed at depth 1: self-signed certificate in certificate chain.
Failed certificate data (unverified): subject "/CN=RootA1", serial number 600670979593537536306603896096514133306975213284, issuer "/CN=RootA1".

root.crt obsahuje jen root crt, server.crt obsahuje server+intermediate crt, client.crt obsahuje client + intermediate crt.
Vuci cemu se tedy ma generovat client.crt, aby to postgresql vzal?

Diky

9
Server / Zpomalení odesílání e-mailu po IPv6 na GMail.com
« kdy: 14. 08. 2024, 11:27:33 »
Ahoj

pouziva se postfix, log viz:

Kód: [Vybrat]
2024-08-14T08:24:44.684477+02:00 mail-21 postfix/smtp[1643510]: 4WkJ896Cb6z12dy: to=<>, relay=gmail-smtp-in.l.google.com[2a00:1450:4013:c06::1a]:25, delay=131, delays=0.09/124/0.73/6.4
2024-08-14T08:24:44.832454+02:00 mail-21 postfix/smtp[1643522]: 4WkJ892hMCz12dw: to=<>, relay=gmail-smtp-in.l.google.com[2a00:1450:4013:c06::1a]:25, delay=131, delays=0.13/124/0.71/7
2024-08-14T08:24:44.994732+02:00 mail-21 postfix/smtp[1643523]: 4WkJBb5FQRz12q7: to=<>, relay=aspmx.l.google.com[2a00:1450:4013:c05::1a]:25, delay=5.3, delays=0.1/0/1.1/4.1
2024-08-14T08:24:45.045530+02:00 mail-21 postfix/smtp[1643600]: 4WkJ8B2p9Pzyd5: to=<>, relay=gmail-smtp-in.l.google.com[2a00:1450:4013:c06::1a]:25, delay=131, delays=0.1/127/1.3/2
2024-08-14T08:24:45.470351+02:00 mail-21 postfix/smtp[1643534]: 4WkJ8C2ph0z12f3: to=<>, relay=gmail-smtp-in.l.google.com[142.250.102.26]:25, delay=130, delays=0.09/129/0.14/0.65
2024-08-14T08:24:45.546614+02:00 mail-21 postfix/smtp[1643525]: 4WkJ8C6KV7z12f1: to=<>, relay=gmail-smtp-in.l.google.com[142.250.102.26]:25, delay=130, delays=0.1/129/0.14/0.58
2024-08-14T08:24:45.700825+02:00 mail-21 postfix/smtp[1643524]: 4WkJ8D3HTWz12f5: to=<>, relay=gmail-smtp-in.l.google.com[142.250.102.26]:25, delay=129, delays=0.1/128/0.14/0.52
2024-08-14T08:24:45.989935+02:00 mail-21 postfix/smtp[1643534]: 4WkJ8F1YCbz10kN: to=<>, relay=gmail-smtp-in.l.google.com[142.250.102.26]:25, delay=129, delays=0.1/128/0.14/0.31
2024-08-14T08:24:46.011989+02:00 mail-21 postfix/smtp[1643510]: 4WkJ8D6gJ3z12f4: to=<>, relay=gmail-smtp-in.l.google.com[142.250.102.26]:25, delay=129, delays=0.12/128/0.13/0.4
2024-08-14T08:24:53.440169+02:00 mail-21 postfix/smtp[1643527]: 4WkJ8B6KRLz12f0: to=<>, relay=gmail-smtp-in.l.google.com[2a00:1450:4013:c06::1a]:25, delay=139, delays=0.1/129/1.4/8.3
2024-08-14T08:24:53.523205+02:00 mail-21 postfix/smtp[1643600]: 4WkJ8G3Mhmz10kR: to=<>, relay=gmail-smtp-in.l.google.com[2a00:1450:4013:c06::1a]:25, delay=135, delays=0.1/127/0.73/6.8
2024-08-14T08:24:53.686717+02:00 mail-21 postfix/smtp[1643534]: 4WkJBr6nzVz12qV: to=<>, relay=aspmx.l.google.com[142.251.31.27]:25, delay=0.73, delays=0.1/0/0.17/0.45
2024-08-14T08:24:54.640306+02:00 mail-21 postfix/smtp[1643523]: 4WkJ8F3LJFz12f7: to=<>, relay=gmail-smtp-in.l.google.com[2a00:1450:4013:c06::1a]:25, delay=137, delays=0.1/128/3.4/5.5
2024-08-14T08:24:55.234540+02:00 mail-21 postfix/smtp[1643524]: 4WkJ8J3jdYz10kQ: to=<>, relay=gmail-smtp-in.l.google.com[142.250.102.26]:25, delay=135, delays=0.1/134/0.13/0.46
2024-08-14T08:24:55.814170+02:00 mail-21 postfix/smtp[1643523]: 4WkJ8K3Fv4z10kf: to=<>, relay=gmail-smtp-in.l.google.com[142.250.102.26]:25, delay=134, delays=0.1/134/0.14/0.44

Kdyz se posilaji jednotkove emaily, tak neni rozdil. Jakmile se posila bulk email, tak nam narusta fronta vuci gmail.com. Z nahodneho casoveho bloku je videt, ze emaily pro gmail.com ipv4 & ipv6 jsou v te same fronte. A hlavni rozdil je v tom, ze navazani spojeni pres ipv6 a zejmena odeslani je dost pomalejsi nez ipv4.

Nevidi nekdo obdobne chovani na svych serverech popr. dokaze odkazat na nejakou dokumentaci/diskuzi, podle ktere se da neco pripadne prenastavit (krome vypnuti ipv6)?

Diky

10
Server / Princip fungování HashiCorp Consul
« kdy: 24. 07. 2024, 09:50:27 »
Ahoj,

chceme pro zabbix zkusit prechod na HA reseni, takze momentalne zkousim patroni/postgresqk cluster a k tomu potrebuji DCS. Cil je mit cluster pres datacentra, ale zabbix nepodporuje vice db serveru v konfiguraci. Zatim jsem misto etcd zvolil ke zkouseni consul pro dynamickou zmenu fqdn->ip, ale nepodarilo se mi dohledat odpovedi na par otazek z duvodu limitu v resolv.conf, pokud se nepouziva jakkakoli dns sluzba na kazdem klientovi:

1] pokud bude jen 1 consul cluster, je misto pouziti consul agenta na kazdem klientovi vyuziti forward zony consulu v infrastrukturnich rekurzorech nestandardni/nesmyslne reseni?
2] v pripade vice consul clusteru viz 1] by muselo byt vice consul domen, ze?
3] pokud se musi nasadit consul agent na kazdeho klienta, jak se to resi u uzivatelu? To ma kazda stanice taky consul agenta?
4] pokud je consul agent na kazdem klientovi, vzhledem k limitu poctu nameserveru v resolv.conf, je lepsi pouzit agenta jako rekurzor, nebo pouzit jinou sluzbu (dnsmasq etc), ktera bude delat rekurzor?
5] pokud je consul cluster rozlozen mezi 2 datacentra a jako 3. musim pouzit aws, je lepsi pouzit misto 1/1/1 rozlozeni 2/2/1 ci 3/3/1 pro zajisteni quora?

Nebo je lepsi to zahodit a bezet etcd? Ale virtualni IP mezi datacentry na stejne L2 fakt nemam rad a jeste bych do toho musel cpat balancery...

Zajimaji me hlavne body 1]3]5].

Diky

11
Server / Aktualizace Dell iDRAC / firmware
« kdy: 11. 07. 2024, 15:44:14 »
Ahoj,

mam zkusenosti jen s HP, tak po procteni nejakeho mnozstvi diskuzi si potrebuji overit nejake veci, protoze tech par R940 (14th gen) v produkci bych nerad zlikvidoval.

1] idrac Firmware Version 3.15.18.15
 - podle service tagu na dell.com/support je k dispozici jen verze 7.00.00.172
2] bios version 1.2.21
 - podle service tagu k dispozici jen 2.21.2
3] Broadcom Adv. Dual 10Gb Ethernet  version 20.06.05.11
 - asi Broadcom NetXtreme-E family of adapters 21.4 (recommended), 22.9 (optional)

Pokud bych mel delat celkovy upgrade, tak nejdrive 1], pak 2], pak 3].  Predpokladam, ze idrac lze restartovat nezavisle na serveru za behu.

Otazky:
1] kdybych mel vice verzi idrac, tak aktualizace by byla ver1->reset->ver2->reset...atd?
2] proc je takovy ciselny skok ve verzi idrac? Nebo mi neco chybi?
3] kdybych mel vice verzi bios, tak aktualizace by byla ver1->reboot->ver2->reboot...atd?
4] je nutne pred aktualizaci sitovky aktualizovat treba bios?
5] kdybych pouzil Dell OpenManage Enterprise, videl bych v nem vsechny verze firmware, nebo tu posledni? Je jeho pouzit bezpecnejsi, nez rucni aktualizace jednotlivych firmware? Pry neni bezpecne akutalizovat primo na posledni verzi, tak https cestu zatim vynechavam. Licenci mame Enterprise, ale jiz mimo support.

Resim to proto, ze Proxmox 8.2 ma jadro 6.8 a pry tam jsou problemy s (Dell etc) Broadcom sitovkama.

Diky

12
Server / Non-root LV občas není aktivní po rebootu VM
« kdy: 20. 06. 2024, 09:22:16 »
Caus,

bojuju s nahodnym problemem, ktery se obcas objevi pri v drtive vetsine hromadnych aktualizacich, na nahodne VM nahodnem Proxmox clusteru. Jedna se o Debiany (11 a 12, ale objevilo se to od Debian 10), s jinymi linuxy tu neni jak porovnat. Po resetu to nabehne bez problemu.

Kód: [Vybrat]
systemctl cat mnt-storage-barman.mnt

# /run/systemd/generator/mnt-storage-barman.mount
# Automatically generated by systemd-fstab-generator

[Unit]
Documentation=man:fstab(5) man:systemd-fstab-generator(8)
SourcePath=/etc/fstab
Before=local-fs.target
After=blockdev@dev-mapper-vg1\x2dbarman.target

[Mount]
What=/dev/mapper/vg1-barman
Where=/mnt/storage/barman
Type=ext4
Options=errors=remount-ro

Kód: [Vybrat]
journalctl -u mnt-storage-barman.mount

Jun 14 10:44:42 HOSTNAME systemd[1]: mnt-storage-barman.mount: Deactivated successfully.
Jun 14 10:44:42 HOSTNAME systemd[1]: Unmounted mnt-storage-barman.mount - /mnt/storage/barman.
-- Boot d7bd76fb9d1a490b944d74ea43fe2516 --
Jun 14 10:46:31 HOSTNAME systemd[1]: Dependency failed for mnt-storage-barman.mount - /mnt/storage/barman.
Jun 14 10:46:31 HOSTNAME systemd[1]: mnt-storage-barman.mount: Job mnt-storage-barman.mount/start failed with result 'dependency'.
-- Boot e2b2bb006de241a69feb33b8f15b33cf --
Jun 14 10:49:00 HOSTNAME systemd[1]: mnt-storage-barman.mount: Directory /mnt/storage/barman to mount over is not empty, mounting anyway.
Jun 14 10:49:00 HOSTNAME systemd[1]: Mounting mnt-storage-barman.mount - /mnt/storage/barman...
Jun 14 10:49:00 HOSTNAME systemd[1]: Mounted mnt-storage-barman.mount - /mnt/storage/barman.

Kód: [Vybrat]
Jun 14 10:45:02 HOSTNAME systemd[1]: Reached target network.target - Network.
Jun 14 10:45:02 HOSTNAME systemd[1]: Starting systemd-networkd-wait-online.service - Wait for Network to be Configured...
Jun 14 10:45:02 HOSTNAME systemd[1]: systemd-pstore.service - Platform Persistent Storage Archival was skipped because of an unmet condition check (ConditionDirectoryNotEmpty=/sys/fs/pstore).
Jun 14 10:45:02 HOSTNAME systemd[1]: systemd-repart.service - Repartition Root Disk was skipped because no trigger condition checks were met.
Jun 14 10:45:02 HOSTNAME lvm[446]: PV /dev/sdb1 online, VG vg0 is complete.
Jun 14 10:45:02 HOSTNAME lvm[447]: PV /dev/sda1 online, VG vg1 is complete.
Jun 14 10:45:02 HOSTNAME lvm[446]: VG vg0 finished
Jun 14 10:45:02 HOSTNAME lvm[447]: VG vg1 finished
Jun 14 10:45:02 HOSTNAME systemd-networkd[312]: ens18: Link UP
Jun 14 10:45:02 HOSTNAME systemd-networkd[312]: ens18: Gained carrier
Jun 14 10:45:02 HOSTNAME systemd[1]: Finished systemd-journal-flush.service - Flush Journal to Persistent Storage.
Jun 14 10:45:02 HOSTNAME systemd[1]: Mounting sys-fs-fuse-connections.mount - FUSE Control File System...
Jun 14 10:45:02 HOSTNAME systemd[1]: Mounted sys-fs-fuse-connections.mount - FUSE Control File System.
Jun 14 10:45:03 HOSTNAME systemd-networkd[312]: ens18: Gained IPv6LL
Jun 14 10:45:03 HOSTNAME systemd-networkd[312]: ens19: Gained IPv6LL
Jun 14 10:45:15 HOSTNAME systemd[1]: Finished systemd-networkd-wait-online.service - Wait for Network to be Configured.
Jun 14 10:45:15 HOSTNAME systemd[1]: Reached target network-online.target - Network is Online.
Jun 14 10:46:31 HOSTNAME systemd[1]: dev-mapper-vg1\x2dbarman.device: Job dev-mapper-vg1\x2dbarman.device/start timed out.
Jun 14 10:46:31 HOSTNAME systemd[1]: Timed out waiting for device dev-mapper-vg1\x2dbarman.device - /dev/mapper/vg1-barman.
Jun 14 10:46:31 HOSTNAME systemd[1]: Dependency failed for mnt-storage-barman.mount - /mnt/storage/barman.
Jun 14 10:46:31 HOSTNAME systemd[1]: Dependency failed for local-fs.target - Local File Systems.
Jun 14 10:46:31 HOSTNAME systemd[1]: local-fs.target: Job local-fs.target/start failed with result 'dependency'.
Jun 14 10:46:31 HOSTNAME systemd[1]: local-fs.target: Triggering OnFailure= dependencies.
Jun 14 10:46:31 HOSTNAME systemd[1]: mnt-storage-barman.mount: Job mnt-storage-barman.mount/start failed with result 'dependency'.
Jun 14 10:46:31 HOSTNAME systemd[1]: dev-mapper-vg1\x2dbarman.device: Job dev-mapper-vg1\x2dbarman.device/start failed with result 'timeout'.

Tzn, boot po restartu v ramci VM (tedy ne v ramci Proxmoxu) je timeout pri mountu diskoveho oddilu (default 90s). Vypis journalu v priloze.

Nasel jsem hromadu podobnych (https://www.suse.com/support/kb/doc/?id=000020331 ) popisu, akorat do RedHat znalostni baze nevidim. Nepotkal se s tim nekdo a po nasazeni nejake zmeny to zmizelo? Zvazuji zvyseni timeoutu, ale mam dost pochybnosti. UUID se mi zase moc nehodi kvuli konfiguraci v ansible (sice disky formatuju rucne...), zrusit LV nevim, zda ma vliv. V produkci je tohle docela problemove, kdyz dojde k restartu VM neplanovane a ten "bug" se objevi. Realne se mi to stane treba pri aktualizacich (davky po 10 VM), kdy jeden nahodny VM vypadne presne na tomhle - prumer je 1-2 VM pri aktualizaci cca 150 VM. A je to v 99% pripadech datova LV, root LV tim zasazena nebyva.

Diky.

13
Server / Limitování systemd-journal per unit
« kdy: 22. 05. 2024, 12:39:12 »
Ahoj,

mam na nekterych serverech toto:

Kód: [Vybrat]
/etc/systemd/journald.conf.d# cat override.conf
[Journal]
SystemMaxUse = 250M
SystemFileSize = 100M

Netdata si v ramci pluginu generuji vlastni logy... ...
Kód: [Vybrat]
/etc/systemd/system/multi-user.target.wants# cat netdata.service
...
[Service]
LogNamespace=netdata
...

Toto ignoruje nastaveni toho override.
Kód: [Vybrat]
var/log/journal# du -h --max-depth 1
446M ./54773980f42149b0885d4d65d3f1a923.netdata
262M ./54773980f42149b0885d4d65d3f1a923
708M .

Zkusil jsem "journalctl --rotate --vacuum-time=1d -u netdata", ale to z te .netdata slozky nesmazalo nic.
Protoze mam limitovany prostor, potrebuji se toho zbavit. V dokumentaci jsem toho moc ohledne tohoto nenasel, takze krome vyhozeni toho LogNamespace (a pak co? proste smazat tu .netdata slozku?) jsem nasel akorat https://wiki.archlinux.org/title/Systemd/Journal bod 4.1, kde uvadi, ze bych mohl vytvorit /etc/systemd/journald@netdata.conf (proc ne klasicky override.conf? ...) a nastavit tam limity pro journal.

Neresil nekdo neco podobneho u libovolne systemd unity?

14
Software / Šifrování pg_dump pomocí OpenSSL
« kdy: 14. 05. 2024, 11:12:43 »
Ahoj,

testuji podle tohoto postupu https://www.imagescape.com/blog/encrypted-postgres-backups/ a na posledni chvili jsem si vsiml:

Kód: [Vybrat]
-rw-r--r-- 1 postgres postgres 1.5M May 14 00:00 db1_14.05.24-00_00.sql.gz.ssl
-rw-r--r-- 1 postgres postgres 3.4K May 14 00:29 globals_only.gz.ssl
-rw-r--r-- 1 postgres postgres 1.9G May 14 00:04 db2_14.05.24-00_00.sql.gz.ssl <---
-rw-r--r-- 1 postgres postgres 1.9G May 14 00:29 db3_14.05.24-00_00.sql.gz.ssl <---
-rw-r--r-- 1 postgres postgres  19M May 14 00:29 db4_14.05.24-00_00.sql.gz.ssl
-rw-r--r-- 1 postgres postgres 1.4K May 14 00:29 postgres_14.05.24-00_00.sql.gz.ssl
-rw-r--r-- 1 root     root       88 May 14 00:00 postgres_db_list_grep.txt
-rw-r--r-- 1 postgres postgres  772 May 14 00:00 template0_14.05.24-00_00.sql.gz.ssl
-rw-r--r-- 1 postgres postgres 1.4K May 14 00:00 template1_14.05.24-00_00.sql.gz.ssl
-rw-r--r-- 1 postgres postgres 154M May 14 00:29 db5_14.05.24-00_00.sql.gz.ssl


Prikaz dle toho webu je pouzit:
Kód: [Vybrat]
/usr/bin/pg_dump --create --exclude-schema=XX --exclude-schema=XY $line | gzip -c | openssl smime -encrypt -aes256 -binary -outform DEM -out $PDIR/'$line'_'$OFP'.gz.ssl /SOMEPATH/local_backup/pgdump_backup.pem

Nesifrovana db2 ma 1.8 GB, nesifrovana db3 ma 7.34 GB. Obe sifrovane maji 1.9 GB. Proc? Na info omezeni velikost ciloveho souboru jsem nenarazil.

Pripadne nejaky jiny tip, jakym postupem sifrovat dumpy?

Diky.

15
Server / Tip na monitoring kontejnerových služeb
« kdy: 29. 01. 2024, 11:40:10 »
Ahoj,

nema nekdo tip na jednoduchy kontejnerovy monitoring? Pouzivam netdata,zabbix, vyvojari by chteli do netdata nastavit monitorovani kontejnerovych ssl redisu, ale tenhle pristup by vyzadoval k urcitym operacim roota, nemluve o tom, ze netdata neumi reload, a jine problematicke body. Prometheus zatim neprovozuji. Tak kdyby nekdo znal nejaky na zprovozneni velice jednoduchy monitoring, o kterem by se dalo uvazovat.

Diky.

Stran: [1] 2 3 ... 7