Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - metalmaus

Stran: [1] 2 3 4
1
Server / Re:Proxmox a VMs si navzájem ovlivňují CPU
« kdy: 07. 02. 2023, 08:22:55 »
Dobrý den,

  pokud Vám na hypervizoru běží numad zkuste vypnout - systemctl stop numad.service.

Máte velká VMs - hodně CPU a předpokládám i hodně RAM a pak se to navzájem pere, protože se to snaží přesouvat proces na CPU a jeho lokální RAM.

numad.service tam neběží.

2
Server / Re:Proxmox a VMs si navzájem ovlivňují CPU
« kdy: 11. 01. 2023, 16:52:00 »
Tak teď to vypadá, že aplikaci ovlivňuje počet RAM modulů. mbw ukazuje, že se snižuje rychlost. Je rozdíl mít v jednom serveru 12x 8GB modulů a v druhém 2x 32 GB. Jsem asi lama.

3
Server / Re:Proxmox a VMs si navzájem ovlivňují CPU
« kdy: 06. 01. 2023, 10:04:05 »
nemas tam nahodou zaply halt_polling ?

https://www.kernel.org/doc/html/latest/virt/kvm/halt-polling.html

Zkusil jsem vypnout a nic
Kód: [Vybrat]
echo "options kvm halt_poll_ns=0" | tee --append /etc/modprobe.d/qemu-system-x86.conf
cat /etc/modprobe.d/qemu-system-x86.conf
options kvm halt_poll_ns=0
cat /sys/module/kvm/parameters/halt_poll_ns
0

4
Server / Re:Proxmox a VMs si navzájem ovlivňují CPU
« kdy: 05. 01. 2023, 17:34:03 »
Nepomohlo by nastavit u VM CPU "Type" na "host"? Jen takový výstřel od boku. Defaultně je tam tuším kvm něco kvůli kompatibilitě při migrací mezi různými stroji (s různými CPU).

host nepomohlo, ale díky

5
Server / Re:Proxmox a VMs si navzájem ovlivňují CPU
« kdy: 05. 01. 2023, 17:33:23 »
Me to v KVM ukazuje taky blbe a na pocatku jsem se prihlasoval do VM ze co mi zere cpu.. a pak jsem dohledal ze za to muze frequency scaling na hostu v kombinaci s dynamicky pridelovanim cpu do guestu - proste guest si mysli ze i v idle natrefil na hranici co zelezo da, ale netusi ze mu bude dalsi prostor pridelen, az bude treba.

Se podivej jak se ti meni frekvence jader pri 2 vs 3 VM.

Frekvence se nemění
Kód: [Vybrat]
lscpu | grep MHz

6
Server / Re:Proxmox a VMs si navzájem ovlivňují CPU
« kdy: 05. 01. 2023, 17:06:48 »
2 x fyzický XEON

7
Server / Re:Proxmox a VMs si navzájem ovlivňují CPU
« kdy: 05. 01. 2023, 14:53:44 »
Problém je, že mi na těch virtuálních strojích běží apiikace, která provádí výpočty na CPU a u ní se to zvýšené zatížení CPU projevuje :(
Na frekvence jader kouknu, dík.

8
Server / Proxmox a VMs si navzájem ovlivňují CPU
« kdy: 05. 01. 2023, 14:10:58 »
Ahoj,
mam Proxmox 7.2-11 a na jednom nodu VMs (32 jader) si navzájem ovlivňují CPU. Celkem má hypervizor/node 104 (2x2x26) jader Xeon(R) Gold 5320 CPU @ 2.20GHz a na node mam 3x VM.

Když běží 2, tak CPU na nich je v pohodě na 30%. Když spustím 3, tak se CPU zvedne na 90-100% na všech. Na výběru VM nezáleží.

Zkoušel jsem izolovat CPU hypervizoru pomocí
Kód: [Vybrat]
taskset --cpu-list --all-tasks --pid 64-95 $(< /run/qemu-server/XXX.pid), ale nepomáhá to.

Netušíte někdo, čím to může být? Já myslel, že by se to nemělo dít, ale jsem dost začátečník a s proxmoxem pracuju jen 3 roky.

9
Server / Re:Dnsmasq a round-robin balancing
« kdy: 31. 07. 2022, 09:48:53 »
Tak kecám. On umožňuje vydávat vícero serverů s jednou IP. Agenti nejsou potřeba.

haproxy vypadá super, protože ucarp potřebuje agenty na cílových strojích. Děkuju.

10
Server / Re:Dnsmasq a round-robin balancing
« kdy: 30. 07. 2022, 09:49:43 »
haproxy vypadá super, protože ucarp potřebuje agenty na cílových strojích. Děkuju.

11
Server / Re:Dnsmasq a round-robin balancing
« kdy: 30. 07. 2022, 09:21:57 »
Dobrý den,

díky moc za odpověď.
Mam rozjetou funkční konfiguraci 3 serverů + 3 ngnix + ucarp. Dostala se ke mně ale informace, že to lze udělat přímo na DNS serveru (např. MS, apod.) nebo že to umí Cisco F5 (já mam k dispozici pouze virtuální prostředí), ale nic jsem o tom nevygooglil.
Rozumim tomu, že DNS server nemá asi jak zjišťovat dostupnost svých záznamů. Nejspíš špatná informace.

12
Server / Dnsmasq a round-robin balancing
« kdy: 29. 07. 2022, 09:49:19 »
Dobrý den,

netušíte někdo, jestli lze pomocí dnsmasqu nastavit pro jedno hostname vícero IP adres tak, aby když jedna z IP nebude dostupná, začne vracet další IP? Něco jako:
Kód: [Vybrat]
fileserv.example.com.  IN  A  172.16.10.10
fileserv.example.com.  IN  A  172.16.10.11
fileserv.example.com.  IN  A  172.16.10.12

Díky.

13
Hardware / Re:iSCSI rozdílná rychlost write/read
« kdy: 12. 12. 2021, 09:41:49 »
Chápu. Vidim iSCSI tejden a nějak se v tom nevyznám. Naklikat něco ve webaminu a připojit do switche (i když to nevím) nebo napřímo dokážu a pak už udělat jen těch pár testů. Sorry.

14
Hardware / Re:iSCSI rozdílná rychlost write/read
« kdy: 10. 12. 2021, 16:21:20 »
Kód: [Vybrat]
root@vig-node1:~# dd if=/dev/urandom of=/mnt/test3
^C7335408+0 records in
7335407+0 records out
3755728384 bytes (3.8 GB, 3.5 GiB) copied, 29.2377 s, 128 MB/s

root@vig-node1:/mnt# dd if=/mnt/test of=/mnt/test/test2.img bs=1G count=5 oflag=direct status=progress
test/  test3 
root@vig-node1:/mnt# dd if=/mnt/test3 of=/mnt/test/test4 oflag=direct status=progress
57174528 bytes (57 MB, 55 MiB) copied, 55 s, 1.0 MB/s^C
113569+0 records in
113569+0 records out
58147328 bytes (58 MB, 55 MiB) copied, 55.918 s, 1.0 MB/s
[b]CTRL+C[/b]
root@vig-node1:/mnt# dd if=/mnt/test3 of=/mnt/test/test4 status=progress
3623843840 bytes (3.6 GB, 3.4 GiB) copied, 10 s, 362 MB/s
7335407+0 records in
7335407+0 records out
3755728384 bytes (3.8 GB, 3.5 GiB) copied, 77.9442 s, 48.2 MB/s
root@vig-node1:/mnt# dd of=/mnt/test3 if=/mnt/test/test4 status=progress
3744973312 bytes (3.7 GB, 3.5 GiB) copied, 10 s, 374 MB/s
7335407+0 records in
7335407+0 records out
3755728384 bytes (3.8 GB, 3.5 GiB) copied, 10.8221 s, 347 MB/s

15
Hardware / Re:iSCSI rozdílná rychlost write/read
« kdy: 10. 12. 2021, 16:10:21 »
Teď jsem na tom hostu zkusil tohle:

Kód: [Vybrat]
root@vig-node1:~# fio --name=random-write --ioengine=posixaio --rw=randwrite --bs=4k --numjobs=1 --size=4g --iodepth=1 --runtime=60 --time_based --end_fsync=1
random-write: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=posixaio, iodepth=1
fio-3.25
Starting 1 process
random-write: Laying out IO file (1 file / 4096MiB)
Jobs: 1 (f=1): [w(1)][100.0%][eta 00m:00s]                         
random-write: (groupid=0, jobs=1): err= 0: pid=47978: Fri Dec 10 15:52:41 2021
  write: IOPS=86.0k, BW=340MiB/s (356MB/s)(20.0GiB/60280msec); 0 zone resets
    slat (nsec): min=470, max=289886, avg=1861.87, stdev=392.96
    clat (nsec): min=199, max=775277, avg=7798.09, stdev=1442.14
     lat (usec): min=7, max=776, avg= 9.66, stdev= 1.58
    clat percentiles (nsec):
     |  1.00th=[ 7008],  5.00th=[ 7136], 10.00th=[ 7200], 20.00th=[ 7264],
     | 30.00th=[ 7392], 40.00th=[ 7456], 50.00th=[ 7520], 60.00th=[ 7648],
     | 70.00th=[ 7776], 80.00th=[ 8032], 90.00th=[ 8512], 95.00th=[ 9152],
     | 99.00th=[12224], 99.50th=[14784], 99.90th=[21120], 99.95th=[23680],
     | 99.99th=[27776]
   bw (  KiB/s): min=67864, max=414800, per=100.00%, avg=384733.71, stdev=62276.30, samples=109
   iops        : min=16966, max=103702, avg=96183.39, stdev=15569.07, samples=109
  lat (nsec)   : 250=0.01%
  lat (usec)   : 10=97.16%, 20=2.72%, 50=0.12%, 100=0.01%, 250=0.01%
  lat (usec)   : 500=0.01%, 750=0.01%, 1000=0.01%
  cpu          : usr=14.53%, sys=41.85%, ctx=5341844, majf=0, minf=861
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued rwts: total=0,5242881,0,0 short=0,0,0,0 dropped=0,0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: bw=340MiB/s (356MB/s), 340MiB/s-340MiB/s (356MB/s-356MB/s), io=20.0GiB (21.5GB), run=60280-60280msec

Disk stats (read/write):
    dm-1: ios=0/755866, merge=0/0, ticks=0/77224, in_queue=77224, util=16.31%, aggrios=43/795520, aggrmerge=0/846, aggrticks=372/77953, aggrin_queue=78324, aggrutil=19.30%
  sda: ios=43/795520, merge=0/846, ticks=372/77953, in_queue=78324, util=19.30%

root@vig-node1:~# mount /dev/sdf /mnt/test/
root@vig-node1:~# ls -lah /mnt/test/
total 5.1G
drwxr-xr-x 3 root root 4.0K Dec 10 08:12 .
drwxr-xr-x 4 root root 4.0K Dec  9 10:43 ..
drwx------ 2 root root  16K Dec  7 13:45 lost+found
-rw-r--r-- 1 root root 5.0G Dec 10 09:16 test2.img
root@vig-node1:~# fio --filename=/mnt/test/test2.img --direct=1 --rw=randread --bs=4k --ioengine=libaio --iodepth=256 --runtime=120 --numjobs=4 --time_based --group_reporting --name=iops-test-job --eta-newline=1 --readonly
iops-test-job: (g=0): rw=randread, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=256
...
fio-3.25
Starting 4 processes
Jobs: 4 (f=4): [r(4)][2.5%][r=16.4MiB/s][r=4206 IOPS][eta 01m:57s]
...
Jobs: 4 (f=4): [r(4)][99.2%][r=18.2MiB/s][r=4647 IOPS][eta 00m:01s]
Jobs: 4 (f=4): [r(4)][100.0%][r=17.0MiB/s][r=4606 IOPS][eta 00m:00s]
iops-test-job: (groupid=0, jobs=4): err= 0: pid=49114: Fri Dec 10 15:59:53 2021
  read: IOPS=4410, BW=17.2MiB/s (18.1MB/s)(2069MiB/120067msec)
    slat (usec): min=2, max=228895, avg=902.74, stdev=3525.22
    clat (msec): min=60, max=850, avg=231.07, stdev=56.95
     lat (msec): min=66, max=850, avg=231.98, stdev=57.06
    clat percentiles (msec):
     |  1.00th=[  161],  5.00th=[  174], 10.00th=[  182], 20.00th=[  192],
     | 30.00th=[  203], 40.00th=[  213], 50.00th=[  224], 60.00th=[  232],
     | 70.00th=[  243], 80.00th=[  253], 90.00th=[  271], 95.00th=[  305],
     | 99.00th=[  477], 99.50th=[  493], 99.90th=[  558], 99.95th=[  617],
     | 99.99th=[  684]
   bw (  KiB/s): min= 7824, max=20160, per=99.95%, avg=17633.44, stdev=548.39, samples=956
   iops        : min= 1956, max= 5040, avg=4408.36, stdev=137.10, samples=956
  lat (msec)   : 100=0.03%, 250=77.20%, 500=22.43%, 750=0.33%, 1000=0.01%
  cpu          : usr=0.49%, sys=1.71%, ctx=74082, majf=0, minf=2110
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.1%
     issued rwts: total=529559,0,0,0 short=0,0,0,0 dropped=0,0,0,0
     latency   : target=0, window=0, percentile=100.00%, depth=256

Run status group 0 (all jobs):
   READ: bw=17.2MiB/s (18.1MB/s), 17.2MiB/s-17.2MiB/s (18.1MB/s-18.1MB/s), io=2069MiB (2169MB), run=120067-120067msec

Disk stats (read/write):
  sdf: ios=528645/4, merge=182/1, ticks=30042868/34, in_queue=30042903, util=100.00%

Stran: [1] 2 3 4