Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Témata - czechsys

Stran: [1] 2 3 ... 6
1
Server / Princip fungování HashiCorp Consul
« kdy: 24. 07. 2024, 09:50:27 »
Ahoj,

chceme pro zabbix zkusit prechod na HA reseni, takze momentalne zkousim patroni/postgresqk cluster a k tomu potrebuji DCS. Cil je mit cluster pres datacentra, ale zabbix nepodporuje vice db serveru v konfiguraci. Zatim jsem misto etcd zvolil ke zkouseni consul pro dynamickou zmenu fqdn->ip, ale nepodarilo se mi dohledat odpovedi na par otazek z duvodu limitu v resolv.conf, pokud se nepouziva jakkakoli dns sluzba na kazdem klientovi:

1] pokud bude jen 1 consul cluster, je misto pouziti consul agenta na kazdem klientovi vyuziti forward zony consulu v infrastrukturnich rekurzorech nestandardni/nesmyslne reseni?
2] v pripade vice consul clusteru viz 1] by muselo byt vice consul domen, ze?
3] pokud se musi nasadit consul agent na kazdeho klienta, jak se to resi u uzivatelu? To ma kazda stanice taky consul agenta?
4] pokud je consul agent na kazdem klientovi, vzhledem k limitu poctu nameserveru v resolv.conf, je lepsi pouzit agenta jako rekurzor, nebo pouzit jinou sluzbu (dnsmasq etc), ktera bude delat rekurzor?
5] pokud je consul cluster rozlozen mezi 2 datacentra a jako 3. musim pouzit aws, je lepsi pouzit misto 1/1/1 rozlozeni 2/2/1 ci 3/3/1 pro zajisteni quora?

Nebo je lepsi to zahodit a bezet etcd? Ale virtualni IP mezi datacentry na stejne L2 fakt nemam rad a jeste bych do toho musel cpat balancery...

Zajimaji me hlavne body 1]3]5].

Diky

2
Server / Aktualizace Dell iDRAC / firmware
« kdy: 11. 07. 2024, 15:44:14 »
Ahoj,

mam zkusenosti jen s HP, tak po procteni nejakeho mnozstvi diskuzi si potrebuji overit nejake veci, protoze tech par R940 (14th gen) v produkci bych nerad zlikvidoval.

1] idrac Firmware Version 3.15.18.15
 - podle service tagu na dell.com/support je k dispozici jen verze 7.00.00.172
2] bios version 1.2.21
 - podle service tagu k dispozici jen 2.21.2
3] Broadcom Adv. Dual 10Gb Ethernet  version 20.06.05.11
 - asi Broadcom NetXtreme-E family of adapters 21.4 (recommended), 22.9 (optional)

Pokud bych mel delat celkovy upgrade, tak nejdrive 1], pak 2], pak 3].  Predpokladam, ze idrac lze restartovat nezavisle na serveru za behu.

Otazky:
1] kdybych mel vice verzi idrac, tak aktualizace by byla ver1->reset->ver2->reset...atd?
2] proc je takovy ciselny skok ve verzi idrac? Nebo mi neco chybi?
3] kdybych mel vice verzi bios, tak aktualizace by byla ver1->reboot->ver2->reboot...atd?
4] je nutne pred aktualizaci sitovky aktualizovat treba bios?
5] kdybych pouzil Dell OpenManage Enterprise, videl bych v nem vsechny verze firmware, nebo tu posledni? Je jeho pouzit bezpecnejsi, nez rucni aktualizace jednotlivych firmware? Pry neni bezpecne akutalizovat primo na posledni verzi, tak https cestu zatim vynechavam. Licenci mame Enterprise, ale jiz mimo support.

Resim to proto, ze Proxmox 8.2 ma jadro 6.8 a pry tam jsou problemy s (Dell etc) Broadcom sitovkama.

Diky

3
Server / Non-root LV občas není aktivní po rebootu VM
« kdy: 20. 06. 2024, 09:22:16 »
Caus,

bojuju s nahodnym problemem, ktery se obcas objevi pri v drtive vetsine hromadnych aktualizacich, na nahodne VM nahodnem Proxmox clusteru. Jedna se o Debiany (11 a 12, ale objevilo se to od Debian 10), s jinymi linuxy tu neni jak porovnat. Po resetu to nabehne bez problemu.

Kód: [Vybrat]
systemctl cat mnt-storage-barman.mnt

# /run/systemd/generator/mnt-storage-barman.mount
# Automatically generated by systemd-fstab-generator

[Unit]
Documentation=man:fstab(5) man:systemd-fstab-generator(8)
SourcePath=/etc/fstab
Before=local-fs.target
After=blockdev@dev-mapper-vg1\x2dbarman.target

[Mount]
What=/dev/mapper/vg1-barman
Where=/mnt/storage/barman
Type=ext4
Options=errors=remount-ro

Kód: [Vybrat]
journalctl -u mnt-storage-barman.mount

Jun 14 10:44:42 HOSTNAME systemd[1]: mnt-storage-barman.mount: Deactivated successfully.
Jun 14 10:44:42 HOSTNAME systemd[1]: Unmounted mnt-storage-barman.mount - /mnt/storage/barman.
-- Boot d7bd76fb9d1a490b944d74ea43fe2516 --
Jun 14 10:46:31 HOSTNAME systemd[1]: Dependency failed for mnt-storage-barman.mount - /mnt/storage/barman.
Jun 14 10:46:31 HOSTNAME systemd[1]: mnt-storage-barman.mount: Job mnt-storage-barman.mount/start failed with result 'dependency'.
-- Boot e2b2bb006de241a69feb33b8f15b33cf --
Jun 14 10:49:00 HOSTNAME systemd[1]: mnt-storage-barman.mount: Directory /mnt/storage/barman to mount over is not empty, mounting anyway.
Jun 14 10:49:00 HOSTNAME systemd[1]: Mounting mnt-storage-barman.mount - /mnt/storage/barman...
Jun 14 10:49:00 HOSTNAME systemd[1]: Mounted mnt-storage-barman.mount - /mnt/storage/barman.

Kód: [Vybrat]
Jun 14 10:45:02 HOSTNAME systemd[1]: Reached target network.target - Network.
Jun 14 10:45:02 HOSTNAME systemd[1]: Starting systemd-networkd-wait-online.service - Wait for Network to be Configured...
Jun 14 10:45:02 HOSTNAME systemd[1]: systemd-pstore.service - Platform Persistent Storage Archival was skipped because of an unmet condition check (ConditionDirectoryNotEmpty=/sys/fs/pstore).
Jun 14 10:45:02 HOSTNAME systemd[1]: systemd-repart.service - Repartition Root Disk was skipped because no trigger condition checks were met.
Jun 14 10:45:02 HOSTNAME lvm[446]: PV /dev/sdb1 online, VG vg0 is complete.
Jun 14 10:45:02 HOSTNAME lvm[447]: PV /dev/sda1 online, VG vg1 is complete.
Jun 14 10:45:02 HOSTNAME lvm[446]: VG vg0 finished
Jun 14 10:45:02 HOSTNAME lvm[447]: VG vg1 finished
Jun 14 10:45:02 HOSTNAME systemd-networkd[312]: ens18: Link UP
Jun 14 10:45:02 HOSTNAME systemd-networkd[312]: ens18: Gained carrier
Jun 14 10:45:02 HOSTNAME systemd[1]: Finished systemd-journal-flush.service - Flush Journal to Persistent Storage.
Jun 14 10:45:02 HOSTNAME systemd[1]: Mounting sys-fs-fuse-connections.mount - FUSE Control File System...
Jun 14 10:45:02 HOSTNAME systemd[1]: Mounted sys-fs-fuse-connections.mount - FUSE Control File System.
Jun 14 10:45:03 HOSTNAME systemd-networkd[312]: ens18: Gained IPv6LL
Jun 14 10:45:03 HOSTNAME systemd-networkd[312]: ens19: Gained IPv6LL
Jun 14 10:45:15 HOSTNAME systemd[1]: Finished systemd-networkd-wait-online.service - Wait for Network to be Configured.
Jun 14 10:45:15 HOSTNAME systemd[1]: Reached target network-online.target - Network is Online.
Jun 14 10:46:31 HOSTNAME systemd[1]: dev-mapper-vg1\x2dbarman.device: Job dev-mapper-vg1\x2dbarman.device/start timed out.
Jun 14 10:46:31 HOSTNAME systemd[1]: Timed out waiting for device dev-mapper-vg1\x2dbarman.device - /dev/mapper/vg1-barman.
Jun 14 10:46:31 HOSTNAME systemd[1]: Dependency failed for mnt-storage-barman.mount - /mnt/storage/barman.
Jun 14 10:46:31 HOSTNAME systemd[1]: Dependency failed for local-fs.target - Local File Systems.
Jun 14 10:46:31 HOSTNAME systemd[1]: local-fs.target: Job local-fs.target/start failed with result 'dependency'.
Jun 14 10:46:31 HOSTNAME systemd[1]: local-fs.target: Triggering OnFailure= dependencies.
Jun 14 10:46:31 HOSTNAME systemd[1]: mnt-storage-barman.mount: Job mnt-storage-barman.mount/start failed with result 'dependency'.
Jun 14 10:46:31 HOSTNAME systemd[1]: dev-mapper-vg1\x2dbarman.device: Job dev-mapper-vg1\x2dbarman.device/start failed with result 'timeout'.

Tzn, boot po restartu v ramci VM (tedy ne v ramci Proxmoxu) je timeout pri mountu diskoveho oddilu (default 90s). Vypis journalu v priloze.

Nasel jsem hromadu podobnych (https://www.suse.com/support/kb/doc/?id=000020331 ) popisu, akorat do RedHat znalostni baze nevidim. Nepotkal se s tim nekdo a po nasazeni nejake zmeny to zmizelo? Zvazuji zvyseni timeoutu, ale mam dost pochybnosti. UUID se mi zase moc nehodi kvuli konfiguraci v ansible (sice disky formatuju rucne...), zrusit LV nevim, zda ma vliv. V produkci je tohle docela problemove, kdyz dojde k restartu VM neplanovane a ten "bug" se objevi. Realne se mi to stane treba pri aktualizacich (davky po 10 VM), kdy jeden nahodny VM vypadne presne na tomhle - prumer je 1-2 VM pri aktualizaci cca 150 VM. A je to v 99% pripadech datova LV, root LV tim zasazena nebyva.

Diky.

4
Server / Limitování systemd-journal per unit
« kdy: 22. 05. 2024, 12:39:12 »
Ahoj,

mam na nekterych serverech toto:

Kód: [Vybrat]
/etc/systemd/journald.conf.d# cat override.conf
[Journal]
SystemMaxUse = 250M
SystemFileSize = 100M

Netdata si v ramci pluginu generuji vlastni logy... ...
Kód: [Vybrat]
/etc/systemd/system/multi-user.target.wants# cat netdata.service
...
[Service]
LogNamespace=netdata
...

Toto ignoruje nastaveni toho override.
Kód: [Vybrat]
var/log/journal# du -h --max-depth 1
446M ./54773980f42149b0885d4d65d3f1a923.netdata
262M ./54773980f42149b0885d4d65d3f1a923
708M .

Zkusil jsem "journalctl --rotate --vacuum-time=1d -u netdata", ale to z te .netdata slozky nesmazalo nic.
Protoze mam limitovany prostor, potrebuji se toho zbavit. V dokumentaci jsem toho moc ohledne tohoto nenasel, takze krome vyhozeni toho LogNamespace (a pak co? proste smazat tu .netdata slozku?) jsem nasel akorat https://wiki.archlinux.org/title/Systemd/Journal bod 4.1, kde uvadi, ze bych mohl vytvorit /etc/systemd/journald@netdata.conf (proc ne klasicky override.conf? ...) a nastavit tam limity pro journal.

Neresil nekdo neco podobneho u libovolne systemd unity?

5
Software / Šifrování pg_dump pomocí OpenSSL
« kdy: 14. 05. 2024, 11:12:43 »
Ahoj,

testuji podle tohoto postupu https://www.imagescape.com/blog/encrypted-postgres-backups/ a na posledni chvili jsem si vsiml:

Kód: [Vybrat]
-rw-r--r-- 1 postgres postgres 1.5M May 14 00:00 db1_14.05.24-00_00.sql.gz.ssl
-rw-r--r-- 1 postgres postgres 3.4K May 14 00:29 globals_only.gz.ssl
-rw-r--r-- 1 postgres postgres 1.9G May 14 00:04 db2_14.05.24-00_00.sql.gz.ssl <---
-rw-r--r-- 1 postgres postgres 1.9G May 14 00:29 db3_14.05.24-00_00.sql.gz.ssl <---
-rw-r--r-- 1 postgres postgres  19M May 14 00:29 db4_14.05.24-00_00.sql.gz.ssl
-rw-r--r-- 1 postgres postgres 1.4K May 14 00:29 postgres_14.05.24-00_00.sql.gz.ssl
-rw-r--r-- 1 root     root       88 May 14 00:00 postgres_db_list_grep.txt
-rw-r--r-- 1 postgres postgres  772 May 14 00:00 template0_14.05.24-00_00.sql.gz.ssl
-rw-r--r-- 1 postgres postgres 1.4K May 14 00:00 template1_14.05.24-00_00.sql.gz.ssl
-rw-r--r-- 1 postgres postgres 154M May 14 00:29 db5_14.05.24-00_00.sql.gz.ssl


Prikaz dle toho webu je pouzit:
Kód: [Vybrat]
/usr/bin/pg_dump --create --exclude-schema=XX --exclude-schema=XY $line | gzip -c | openssl smime -encrypt -aes256 -binary -outform DEM -out $PDIR/'$line'_'$OFP'.gz.ssl /SOMEPATH/local_backup/pgdump_backup.pem

Nesifrovana db2 ma 1.8 GB, nesifrovana db3 ma 7.34 GB. Obe sifrovane maji 1.9 GB. Proc? Na info omezeni velikost ciloveho souboru jsem nenarazil.

Pripadne nejaky jiny tip, jakym postupem sifrovat dumpy?

Diky.

6
Server / Tip na monitoring kontejnerových služeb
« kdy: 29. 01. 2024, 11:40:10 »
Ahoj,

nema nekdo tip na jednoduchy kontejnerovy monitoring? Pouzivam netdata,zabbix, vyvojari by chteli do netdata nastavit monitorovani kontejnerovych ssl redisu, ale tenhle pristup by vyzadoval k urcitym operacim roota, nemluve o tom, ze netdata neumi reload, a jine problematicke body. Prometheus zatim neprovozuji. Tak kdyby nekdo znal nejaky na zprovozneni velice jednoduchy monitoring, o kterem by se dalo uvazovat.

Diky.

7
Server / Debian 12 ProFTPD - soubor lze nahrát až napodruhé
« kdy: 29. 08. 2023, 14:38:07 »
Ahoj,

na starem proftpd jsem se s tim nesetkal, tak na to nemuzu prijit.

Kód: [Vybrat]
sftp> ls -aln
drwx------    ? 2001     2001         4096 Aug 29 14:20 .
drwx------    ? 2001     2001         4096 Aug 29 14:20 ..
sftp> put /tmp/sftp_test.txt
Uploading /tmp/sftp_test.txt to /sftp_test.txt
dest open "/sftp_test.txt": Permission denied
sftp> ls -aln
drwx------    ? 2001     2001         4096 Aug 29 14:21 .
drwx------    ? 2001     2001         4096 Aug 29 14:21 ..
-rw-r--r--    ? 2001     2001            0 Aug 29 14:21 sftp_test.txt
sftp> put /tmp/sftp_test.txt
Uploading /tmp/sftp_test.txt to /sftp_test.txt
sftp_test.txt                                                                                                                                                              100%    6     3.9KB/s   00:00   
sftp> ls -aln
drwx------    ? 2001     2001         4096 Aug 29 14:21 .
drwx------    ? 2001     2001         4096 Aug 29 14:21 ..
-rw-r--r--    ? 2001     2001            6 Aug 29 14:21 sftp_test.txt
sftp> ^D

Bez ohledu na slozku, kdykoli se pokusim nahrat soubor, co neexistuje, tak se soubor na sftp vytvori s velikosti 0 B a hodi to chybu. Kdyz zkusim nahrat soubor napodruhe, tak uz nema problem nahrat i obsah souboru. Netusi nekdo, v cem je zadrhel? Slozky lze vytvaret rovnou.

Nejake ty zmenove konfigy od defaultu:
Kód: [Vybrat]
<Global>
#AllowOverwrite on
CreateHome on dirmode 0750 uid 2001 gid 2001
DefaultChdir /srv/sftp
DefaultRoot ~
RequireValidShell off
</Global>

Kód: [Vybrat]
<VirtualHost 0.0.0.0>
 ServerName SOMEFQDN
 Port 2222
 Umask 0022 0002
 AllowOverwrite on

 <IfModule mod_sftp.c>
  MaxLoginAttempts 6
  SFTPAuthMethods publickey
  SFTPEngine     on
  SFTPHostKey /etc/ssh/ssh_host_rsa_key
  SFTPHostKey /etc/ssh/ssh_host_ed25519_key

  <IfModule mod_sftp_sql.c>
   # Instead of using a file-based key store, we tell mod_sftp to use the SQL-based key store provided by mod_sftp_sql
   SFTPAuthorizedUserKeys sql:/get-user-authorized-keys
  </IfModule>

  #Limit use SITE_CHMOD
  <Limit SITE_CHMOD>
   DenyAll
  </Limit>

  <Directory / >
   <Limit ALL>
    DenyAll
   </Limit>
  </Directory>

  <Directory /srv/sftp/ >
   <Limit ALL>
    AllowAll
   </Limit>
  </Directory>
 </IfModule>
 <IfModule mod_sql.c>
  SQLBackend postgres

  SQLConnectInfo proftpd@localhost SOMEUSER SOMEPASS

  # Now that we have a default connection, we can create another connection, named "logdb" and using the "postgresql" backend, to the logdb database
  SQLNamedConnectInfo logdb postgres proftpd@localhost SOMEUSER SOMEPASS

  # Define a SELECT statement to retrieve user's authorized SSH keys
  SQLNamedQuery get-user-authorized-keys SELECT "passwd FROM users_argon2 WHERE userid='%U' AND locked=false"

  # Define a SELECT statement to retrieve user's info
  SQLNamedQuery get-user-by-name SELECT "userid, passwd, uid, gid, homedir, shell FROM users_argon2 WHERE userid = '%U' AND locked=false"

  SQLUserInfo custom:/get-user-by-name
  SQLGroupInfo public.groups groupname gid members

#  SQLNamedQuery get-group-by-name SELECT "groupname, gid, members from groups where members= '%U'"
#  SQLGroupInfo custom:/get-group-by-name

  # Update the users.last_accessed column on successful login in the userdb
  SQLNamedQuery last_accessed UPDATE "last_accessed=NOW() WHERE userid='%u'" users
  #SQLLog PASS last_accessed

  # Add a row to the login_history table on successful login in the logdb
  SQLNamedQuery log_sess FREEFORM "INSERT INTO login_history (userid, client_ip, server_ip, protocol, date) VALUES ('%u, '%a', '%V', '%{protocol}', NOW())" logdb
  #SQLLog PASS log_sess

  #SQLLog PASS *
  SQLLogFile /var/log/proftpd/sql.log
 </IfModule>
 <IfGroup test>
# <IfUser pubkey>
  <Limit Login>
   Order allow, deny
#   Deny from SOMEIP
  </Limit>
# </IfUser>
 </IfGroup>

</VirtualHost>

8
Odkladiště / Vedení elektrokabeláže venkem
« kdy: 27. 07. 2023, 12:29:38 »
Ahoj,

tak po plodne diskuzi na osvetleni nizkeho prostoru a co jsem videl diskuzi o natazeni kabelu mezi dvema baraky vzduchem, davam dalsi zajimave tema (casove omezene, uz jsem to mel mit hotove).

Viz obrazek. Napravo od dveri je schovany rozvadec - vede do nej ta nenapadna chranicka pod podlahou terasy. Na terase bude dlazba na tercich + zastreseni. Stena bude v odstinu cerne. A nyni jeste zvazuji a hledam idealni reseni vyvedeni elektroinstalace ven v tomto rozsahu:

1] 3x cyky smer nahoru (zasuvky,osvetleni)
2] 2x cyky do zeme (zasuvky), kazdy jinym smerem

Podlahu terasy vrtat nechci.
Podlaha mistnosti pod terasou je asi 30cm pod urovni terenu.
Zena zase nechce, abychom vrtali stenu terasy pod terenem. Trochu naivne si mysli, ze tim malym otvorem, kde vede chranicka, protahneme dalsich 5 kabelu. Mluvi tedy zatim o rozsireni otvoru.

Kazdopadne, ty kabely chci zakryt na terasove stene, i kdyz jsou UV odolne. Varianty:
1] nejak to venku zalistovat (cerne listy jsou, parapetni kanaly ale ne)
2] chranicky kovove nereznouci (misto kopofexu) a pak to nejak rozdelit do kopofexovych
3] postavit sloupek (jekl na miru atd, ztracene bedneni, plotovka atd) a pak prejit do chranicek
4] dat tam trubku (okapovy svod)

Ucelem je zakryti a zaroven mit moznost uprav/oprav. Takze bud komplet tahane chranickami, nebo mit do toho zakryti pristup, nez to prejde na chranicky.

Tak jsem zvedav, co vas napadne.

Jak sem sakra mam vlozit obrazek...No je v priloze.

9
Odkladiště / Tip na osvětlení nízkého prostoru
« kdy: 20. 07. 2023, 12:54:42 »
Ahoj,

hledam tipy. Venkovni podsklepeni a la "chodba" rozmeru cca 400x190x180 cm, ve ktere se skladuje zahradni naradi apod., takze vyska fakt mizerna. Budu tam upravovat elektroinstalaci a puvodni osvetleni chci vymenit. Mistnost je pomyslne rozdelena na 3 podelne casti sirky 45x80x45, kde stred je dverni otvor. Po stranach se uvazuje umisteni regalu apod.

Stropni svetlo se zde moc aplikovat neda (kazdy cm se pocita pri dlouhych nasadach z hlediska poskozeni svetel), tak mne napadlo pouzit rohova svetla na tech regalech. Zatim jsem nasel jen lcd varianty s napajecim zdrojem, nevi nekdo podobnou variantu s 230V? Pripadne si poslechnu i jine tipy. V nouzi tam kdyztak naflakam obycejna technicka svetla jak to vyjde, je to spis technicka frajerinka, neni duvod tam investovat velke penize.

Pokukuju po necem takovem (i obdelnikovem): https://www.ledshopik.cz/projekt/public/fotky/mini/led-profil-rohovy-kopro-cerny-lak_1241_3.jpg

Diky.

10
Server / AWS - jak nakonfigurovat více síťovek na ec2?
« kdy: 04. 07. 2023, 15:38:42 »
Ahoj,

na AWS se snazim rozbehnout ec2 instanci s temito pozadavky pro jednu sluzbu, kterou bohuzel do toho musim napojit skrz vpn. Dle dokumentace bych mel mit instanci s 3 sitovkami (1 mgmt, 2x sluzba - na to se napoji pak vpn). Nejak se mi nedari zakladni sitovani pres webove rozhrani:

1] vytvorim ec2 instanci se statickou privatni ip a.b.x.10/24, priradim elastic ip - toto funguje
2] pripojim dalsi sitove rozhrani se statickou privatni ip a.b.y.10/24

Po rebootu ma instance jako defaultni branu a.b.y.10 misto a.b.x.10. Jak z toho ven? Jde toto nastavit pres web, nebo je nutne site tohoto typu konfigurovat v instanci primo? A bude to pak fungovat i mimo instanci (routovani etc), nebo se musi pak nekde jeste neco ve web rozhrani nastavovat v ramci dane VPC?

Diky

11
Sítě / Testování rootless docker/podman a výkon sítě
« kdy: 30. 06. 2023, 12:55:36 »
Ahoj,

na zaklade https://www.edc4it.com/blog/rootless-docker testuji vykon site pro rootless vs rootfull docker (debian 12+docker repo). Jen si chci overit, ze to testuji spravne resp. ze propustnost v rootless pres slirp4netns mezi container<->host je fakt takhle mala:

Rootless container<->host
Kód: [Vybrat]
dockeruser@docker-01:~$ docker run -it --rm networkstatic/iperf3 -c 192.168.X.Y
Connecting to host 192.168.X.Y, port 5201
[  5] local 172.17.0.3 port 45974 connected to 192.168.X.Y port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  28.8 MBytes   241 Mbits/sec    0   68.4 KBytes       
[  5]   1.00-2.00   sec  28.8 MBytes   241 Mbits/sec    0   68.4 KBytes       
[  5]   2.00-3.00   sec  35.0 MBytes   294 Mbits/sec    0   68.4 KBytes       
[  5]   3.00-4.00   sec  27.5 MBytes   231 Mbits/sec    0   68.4 KBytes       
[  5]   4.00-5.00   sec  33.8 MBytes   283 Mbits/sec    0   68.4 KBytes       
[  5]   5.00-6.00   sec  32.5 MBytes   273 Mbits/sec    0   68.4 KBytes       
[  5]   6.00-7.00   sec  38.8 MBytes   325 Mbits/sec    0   68.4 KBytes       
[  5]   7.00-8.00   sec  50.0 MBytes   419 Mbits/sec    0   68.4 KBytes       
[  5]   8.00-9.00   sec  20.0 MBytes   168 Mbits/sec    0   68.4 KBytes       
[  5]   9.00-10.00  sec  40.0 MBytes   335 Mbits/sec    0   68.4 KBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec   335 MBytes   281 Mbits/sec    0             sender
[  5]   0.00-10.04  sec   332 MBytes   277 Mbits/sec                  receiver

dockeruser@docker-01:~$ docker network ls
NETWORK ID     NAME            DRIVER    SCOPE
a0f2efa2d404   bridge          bridge    local
3c4866d0a70e   host            host      local
c5ed0bee3739   none            null      local
b2be15dd6e13   redis_default   bridge    local


Rootless container<->container
Kód: [Vybrat]
dockeruser@docker-01:~$ docker run -it --rm networkstatic/iperf3 -c $SERVER_IP
Connecting to host 172.17.0.2, port 5201
[  5] local 172.17.0.3 port 58482 connected to 172.17.0.2 port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  1.25 GBytes  10.7 Gbits/sec    0   1.71 MBytes       
[  5]   1.00-2.00   sec  1.33 GBytes  11.5 Gbits/sec    0   2.53 MBytes       
[  5]   2.00-3.00   sec  1.54 GBytes  13.3 Gbits/sec    0   3.07 MBytes       
[  5]   3.00-4.00   sec  1.68 GBytes  14.5 Gbits/sec    0   3.07 MBytes       
[  5]   4.00-5.00   sec  2.07 GBytes  17.8 Gbits/sec    0   3.07 MBytes       
[  5]   5.00-6.00   sec  2.11 GBytes  18.1 Gbits/sec    0   3.07 MBytes       
[  5]   6.00-7.00   sec  2.19 GBytes  18.8 Gbits/sec    0   3.07 MBytes       
[  5]   7.00-8.00   sec  2.20 GBytes  18.9 Gbits/sec    0   3.07 MBytes       
[  5]   8.00-9.00   sec  2.14 GBytes  18.4 Gbits/sec    0   3.07 MBytes       
[  5]   9.00-10.00  sec  2.17 GBytes  18.6 Gbits/sec    0   3.07 MBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec  18.7 GBytes  16.1 Gbits/sec    0             sender
[  5]   0.00-10.04  sec  18.7 GBytes  16.0 Gbits/sec                  receiver

dockeruser@docker-01:~$ docker network ls
NETWORK ID     NAME            DRIVER    SCOPE
a0f2efa2d404   bridge          bridge    local
3c4866d0a70e   host            host      local
c5ed0bee3739   none            null      local
b2be15dd6e13   redis_default   bridge    local

Rootfull container<->host
Kód: [Vybrat]
root@docker-01:~# docker run -it --rm networkstatic/iperf3 -c 192.168.X.Y
Connecting to host 192.168.X.Y, port 5201
[  5] local 172.17.0.3 port 50708 connected to 192.168.X.Y port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  1.98 GBytes  17.0 Gbits/sec    0   3.10 MBytes       
[  5]   1.00-2.00   sec  1.89 GBytes  16.2 Gbits/sec    0   3.10 MBytes       
[  5]   2.00-3.00   sec  2.06 GBytes  17.7 Gbits/sec    0   3.10 MBytes       
[  5]   3.00-4.00   sec  1.72 GBytes  14.8 Gbits/sec    0   3.10 MBytes       
[  5]   4.00-5.00   sec  1.93 GBytes  16.6 Gbits/sec    0   3.10 MBytes       
[  5]   5.00-6.00   sec  1.73 GBytes  14.9 Gbits/sec  275   3.10 MBytes       
[  5]   6.00-7.00   sec  1.88 GBytes  16.2 Gbits/sec    0   3.10 MBytes       
[  5]   7.00-8.00   sec  2.18 GBytes  18.7 Gbits/sec  117   3.10 MBytes       
[  5]   8.00-9.00   sec  2.06 GBytes  17.7 Gbits/sec    0   3.10 MBytes       
[  5]   9.00-10.00  sec  1.89 GBytes  16.3 Gbits/sec    0   3.10 MBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec  19.3 GBytes  16.6 Gbits/sec  392             sender
[  5]   0.00-10.04  sec  19.3 GBytes  16.5 Gbits/sec                  receiver

root@docker-01:~# docker network ls
NETWORK ID     NAME      DRIVER    SCOPE
cedfc6a7236a   bridge    bridge    local
583daee39b67   host      host      local

Predpokladam, ze ty testy byly typu network=host. Zatim mi unika, proc u redis_default je network=bridge, to jsem myslel, ze v rootless mode nejde. Zahledl jsem, ze podman by uz mel podporovat network=pasta, ale ke konfiguraci/vyzkouseni jsem se zatim nedostal. Ma nekdo rootless mode v nejakem provozu a muze potvrdit, ze propad vykonu je proti rootfull skutecne az takhle?

Diky

12
Ahoj,

Kód: [Vybrat]
2023-06-28 16:14:51.459 CEST [23646] USER@template1 WARNING:  database "template1" has a collation version mismatch
2023-06-28 16:14:51.459 CEST [23646] USER@template1 DETAIL:  The database was created using collation version 2.31, but the operating system provides version 2.36.
2023-06-28 16:14:51.459 CEST [23646] USER@template1 HINT:  Rebuild all objects in this database that use the default collation and run ALTER DATABASE template1 REFRESH COLLATION VERSION, or build PostgreSQL with the right library version.

Podle

https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=1029548#20
https://dba.stackexchange.com/questions/324649/collation-version-mismatch

jsem pouzil v tomto poradi:

Kód: [Vybrat]
alter database postgres refresh collation version;
reindex database postgres;
alter database template1 refresh collation version;
reindex database template1;

Samozrejme si nejsem jisty, zda je to dostatecne a ve spravnem poradi.

Upgrade byl proveden v krocich, tzn:
1] upgrade debian 11 na 12
2] upgrade db postgresql-15:amd64 (15.3-1.pgdg110+1, 15.3-1.pgdg120+1)

Behem upgrade 1] zustal repozitar postgresql nasmerovany na verzi debian 11. Momentalne nemam dalsi stroj po ruce, ktery bych takhle upgradoval, tak jen, nekdo znaly, kdyby v bode 1] byl repozitar postgresql nasmerovany na debian 12, doslo by taky k teto situaci?

Bude nas cekat upgrade hodne postgresql stroju na debian 12 a takovehle veci nemam rad. Nekdo, kdo muze potvrdit, ze alter/reindex je takhle dostatecne? Napr. pan Stehule prosim?

Diky.

13
Vývoj / PHP 8.2 nevrací ve funkci date čas s timezone
« kdy: 12. 04. 2023, 16:19:26 »
php.ini:
Kód: [Vybrat]
root@testphp:/opt# grep timezone /etc/php/8.?/cli/php.ini
/etc/php/8.1/cli/php.ini:; Defines the default timezone used by the date functions
/etc/php/8.1/cli/php.ini:; https://php.net/date.timezone
/etc/php/8.1/cli/php.ini:;date.timezone =
/etc/php/8.2/cli/php.ini:; Defines the default timezone used by the date functions
/etc/php/8.2/cli/php.ini:; https://php.net/date.timezone
/etc/php/8.2/cli/php.ini:;date.timezone =

Skript:
Kód: [Vybrat]
cat /opt/date.php
<?php

$date 
date('Y-m-d H:i:s');
echo 
$date;
echo 
"\n";
?>

Testy:
Kód: [Vybrat]
root@testphp:/opt# /usr/bin/php8.2 /opt/date.php
2023-04-12 14:00:22

root@testphp:/opt# /usr/bin/php8.1 /opt/date.php
2023-04-12 16:00:26

root@testphp:/opt# timedatectl
               Local time: Wed 2023-04-12 16:00:34 CEST
           Universal time: Wed 2023-04-12 14:00:34 UTC
                 RTC time: Wed 2023-04-12 14:00:35
                Time zone: Europe/Prague (CEST, +0200)
System clock synchronized: no
              NTP service: active
          RTC in local TZ: no

Kód: [Vybrat]
root@testphp:~# apt-cache policy php8.2-cli
php8.2-cli:
  Installed: 8.2.4-1+0~20230409.18+debian11~1.gbp556b04
  Candidate: 8.2.4-1+0~20230409.18+debian11~1.gbp556b04
  Version table:
 *** 8.2.4-1+0~20230409.18+debian11~1.gbp556b04 990
        990 https://packages.sury.org/php bullseye/main amd64 Packages
        100 /var/lib/dpkg/status
root@testphp:~# apt-cache policy php8.1-cli
php8.1-cli:
  Installed: 8.1.17-1+0~20230409.38+debian11~1.gbp0c3ecb
  Candidate: 8.1.17-1+0~20230409.38+debian11~1.gbp0c3ecb
  Version table:
 *** 8.1.17-1+0~20230409.38+debian11~1.gbp0c3ecb 990
        990 https://packages.sury.org/php bullseye/main amd64 Packages
        100 /var/lib/dpkg/status

Je to bug ci ne? Nemuzu najit v release notes php8.2, co by se k tomu dalo priradit.

14
Server / iSCSI Multipathing v Proxmox
« kdy: 12. 04. 2023, 12:05:35 »
Ahoj,

mam v ruce 2x storage (bude v HA), ktere ma byt pripojeno pres iscsi multipath. Bohuzel aplikace vyrobce resici multipath je pouze pro windows a redhat-style systemy, debian/ubuntu podporovany neni, takze s tim budeme muset trochu laborovat.

1] Kazda storage ma 4x fyzicky port do switchu, momentalne ma tedy 4x IP z jednoho iscsi subnetu.
2] Testovaci PVE ma 2x fyzicky port do switchu, openvswitch+lacp+bridge+2 virtual iscsi porty, tzn. 2 IP ze stejneho iscsi subnetu jako v 1]
3] datove toky na PVE momentalne jedou jen pres jeden iscsi port

Aby byl funkcni multipath, co je potreba?
a1] dedikovany subnet per port na storage
a2] 1 subnet per  storage
b1] dedikovany subnet per port na pve
b2] 1 subnet per pve
c1] iscsi over lacp na pve
c2] iscsi bez lacp na pve (tzn. dedikovane fyzicke porty)

Kombinace a2+b2+c2 je jasna. Ale jak se tam pak resi treba to, ze by pve mel jen 2x iscsi vs storage 4x iscsi z hlediska adresace/routovani?
Je mozna jina kombinace, ktera by byla jeste rozumne jednoducha? napr. a1+b1+c1 atd.?

Jeste je nutno vzit v uvahu, ze kazdy pve by mel propoj na obe storage, kazda v jine lokalite s jinou L3 adresaci - tedy bez roztahnuti L2. Celkove se tedy v tuto chvili jedna o 2x4 iscsi target, momentalne 2 ruzne iscsi subnety (1 per lokalita).

Diky.

15
Distribuce / Upgrade grub-pc na Proxmoxu rozbije boot
« kdy: 04. 04. 2023, 09:49:09 »
Ahoj,

uz nejakou dobu se potykam s problemem ohledne upgrade grub-pc na debian 11 jako VM v proxmoxu. Rozpadne se detekce boot oddilu. Skace to nahodne po serverech, zakladni VM, kterou pouzivam pro klonovani jsem upravil, ale i tak se to objevuje. Mam s tim pak problemy v ansible updatech serverech, kdy je nutny zasah. Oprava spociva ve volbe "NO" a nasledne zruseni "/dev/dm0" a zaskrtnuti "/dev/sda" jako boot disk.

Nevi nekdo, jak to definitivne fixnout?

Fdisk:
Kód: [Vybrat]
Disk /dev/sda: 10 GiB, 10737418240 bytes, 20971520 sectors
Disk model: QEMU HARDDISK   
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xb75887e2

Device     Boot Start      End  Sectors Size Id Type
/dev/sda1  *     2048 20969471 20967424  10G 8e Linux LVM


Disk /dev/mapper/vg0-root: 7.45 GiB, 7998537728 bytes, 15622144 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/vg0-swap: 2.55 GiB, 2734686208 bytes, 5341184 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Stran: [1] 2 3 ... 6