Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - wakatana

Stran: 1 [2] 3 4 ... 9
16
Hardware / Re:Několik otázek ohledně spotřeby PC
« kdy: 04. 01. 2021, 00:03:09 »
Dakujem pekne vsetkym za rady, nakoniec som siel do drahsieho riesenia koli vykonu a pripadnym hram vid https://forum.root.cz/index.php?topic=24064.0

17
Server / Re:Domácí virtuální server postavený na Proxmoxu
« kdy: 04. 01. 2021, 00:00:04 »
Dakujem pekne vsetkym, nakoniec som siel do GIGABYTE X570 AORUS PRO. Cakam este na dodanie. Urcite tu dam este nejden post kym to vsetko vyladim tak ako chcem ;)

PS: vsetko dobre v novom roku

18
Server / Re:Domácí virtuální server postavený na Proxmoxu
« kdy: 31. 12. 2020, 03:37:42 »
Probuh, nekomplikuj to. Chipset ma typicky dalsich 12 az 24 PCIe linek, ktere vedou na ruzne dalsi x1/x2/x4 porty (druha sitovka, wifi, usb3.x radice, firewire, a samozrejme PCIe sloty - typicky tam byva jeden v X4 rezimu a pak jeden nebo vice v x1 rezimu). Pokud se nekde pise "pouzitelnych 20", to znamena ze uz 4 odecetli kvuli chipsetu.

Vzdy se divej na blokovy diagram konkretni desky - co kam vede. Pokud to vyrobce neukazuje, vem jineho vyrobce - zde opravdu neni rozdil, zda budes mit Gigabyte nebo ASUS.

Pardon dobre som myslel ale zle som napisal, zabudol som odcitat 4. Jediny blokovy diagram co som nasiel je ku chipsetu nie ku doske https://www.techpowerup.com/255729/amd-x570-unofficial-platform-diagram-revealed-chipset-puts-out-pcie-gen-4 resp toto https://www.gamersnexus.net/guides/3482-amd-x570-vs-x470-x370-chipset-comparison (tazko povedat co je oficialnejsia verzia)

Na tom prvom je ku chipsetu pripojene toto:
1x PCIex4 4.0
3x PCIEx1 4.0

Ku CPU toto:
PCIe 1x PCIeX16 4.0 (resp 2x PCIeX8 4.0)


Opytam sa teda velmi konkretne, ak by som mal takuto konfiguraciu bude to fungovat aj napriek tomu ze Ryzen 5 3600 ma 20 PCIelanes?

CPU: Ryzen 5 3600
MTB: GIGABYTE X570 AORUS PRO
PCIEX16: GPU urcena pre PCIeX16 3.0
PCIEX8: GPU urcena pre PCIeX16 3.0
PCIEX4: SATA radic urceny pre PCIeX4
PCIEX1_1: Sietova karta urcena do PCIeX1
PCIEX1_2: Sietova karta urcena do PCIeX1

Ako uz bolo spomenute PCIEX16 a PCIEX8 by mali fungovat v rezime x8:

Citace
For optimum performance, if only one PCI Express graphics card is to be installed,
be sure to install it in the PCIEX16 slot.
* The PCIEX8 slot shares bandwidth with the PCIEX16 slot. When using the 3rd
Generation AMD Ryzen ™ processors/2nd Generation AMD Ryzen ™ processors, the
PCIEX16 slot operates at up to x8 mode.

To je dokopy 16 lanes (typu PEG) ale ja potrebujem este dalsich 6 (typu GPP) na NIC a SATA (a mam len 4 ked spravne chapem). Je to problem alebo si s tym chipset poradi?

V pripade ze tato doska ma PCIEX16 a PCIEX8 priamo pripojene na CPU tak predpokladam ze nieje mozne usetrit PCIe lanes (pre NIC a SATA) tak ze pouzijem len jednu GPU ale nie v PCIEX16 ale v PCIEX8?

Ak tejto konfiguracii brani pocet PCIe lanes je mozne toto nejako zrealizovat len s pouzitim 1 GPU alebo je nutne mat CPU co ma viac lanes?

Kolko SATA viem k takejto zostave pripojit (v pripade ze doska ma 6x SATA), pytam sa preto lebo vo vyssie spomenutom diagrame je znazorenene ze SATA je prepinanacom spojena s m.2 a ta je spojena s PCIex4 4.0

Alebo to je proste tak ze ku chipsetu mozem priojit prakticky cokolvek na co ma doska konektory a co nieje na priamo spojene s CPU (teda vsetko okrem PCIEX16 a PCIEX8) a chipset to vsetko prepoji s CPU po PCIeX4 4.0?

Jednoducho sa z toho neviem vysomarit lebo niekde sa udava ze AMD Ryzen 5 3600 ma 20 lanes ale tu sa napr udava ze AMD Ryzen 5 3600X ma 16+4+4
https://www.kitguru.net/components/cpu/luke-hill/amd-ryzen-5-3600x-6c12t-cpu-review/

je to sice pre AMD Ryzen 5 3600X a nie pre AMD Ryzen 5 3600 ale ta by sa zasa mala lisit len taktom
https://www.techspot.com/article/1880-ryzen-3600x-vs-3600/

Dakujem velmi pekne

19
Server / Re:Domácí virtuální server postavený na Proxmoxu
« kdy: 30. 12. 2020, 14:28:34 »
... podle tohoto se zdá, že 2 GPU opravdu budou ve dvou skupinách.

To je vpodstate to iste co som poslal, alebo je tam nejaka nova informacia?

Už je pozdě, takže jen stručně, když tak zítra bych doplnil.
Hned když jsem viděl tak dlouhý výpis mě napdalo, že byl aplikován ACS patch. U prvních Ryzenů jsem četl, že měly špatně rozdělené IOMMU Groups pro GPU, ale po aktualizaci biosu se to spravilo, tak možná proto zkoušel více verzí biosu. ACS není nějaká funkce kernelu, která je/není podporována. ACS patch se aplikuje na zdrojáky kernelu a následně se kernel zkompiluje. Např. na Archu je možno použít tento kernel s ACS patchem. U Proxmoxu by snad také mělo být nějaké repo ve kterém bude kernel s ACS patchem.

A aky je rozdiel medzi pouzitim ACS v BIOSe a pouzitim ACS patch? Chapem to tak ze ak mam moznost zapnut ACS v BIOSe tak potom nepotrebujem ACS patch, a dokonca by to malo byt aj bezpecne, alebo sa mylim?

Aky je vlastne problem s pouzitim ACS (okrem potencionalny VS escape security problemov ktore to prinasa vid https://www.reddit.com/r/VFIO/comments/bvif8d/official_reason_why_acs_override_patch_is_not_in/ resp https://www.reddit.com/r/VFIO/comments/9jer5r/acs_patch_risk/) Chapal som to povodne tak ze ked vsetko ostatne zlyha tak ACS by malo fungovat v 99% pripadov, avsak v druhom odkaze sa pise ze ani ACS nieje uplne idealna izolacia a je tam aj problem so stabilitou. Takze na ACS (ci uz je v BIOSe alebo patch) sa neoplati spoliehat?

Taktiez mi to vychadza tak ze nestaci ze BIOS ma moznost zapnut ACS, je k tomu treba mat aj spravnu verziu BIOSu aby vznikli "spravne" IOMMU skupiny (vid predosle posty kde bolo skusanych niekolko verzii BIOSu).

Podla tohoto by Proxmox mal mat uz ACS
https://www.reddit.com/r/Proxmox/comments/cagusq/current_state_of_pci_passthrough_acs_patch/

NENI. Primo tam pisou, ze kdyz pouzijes PCIEX8 slot, tak ten, co je oznacen jako PCIEX16 bezi v x8, plati to pro 2nd i 3rd gen Ryzen. (a v pripade APU s grafikou tam je jenom 8 linek takze pojede jenom jeden z tech slotu - PCIEX16, v x8 modu).

Toto je zcela normalni reseni, ktere uz existuje snad deset let, ze ma cpu 16 PEG linek, ktere lze rozdelit na 8+8, a deska tu pulku jenom pasivnim prepinacem (muxem) predratuje do druheho slotu (tomu nekdo rika "sdileni linek mezi sloty"). Pozdejsi cpu meli jeste moznost 8+4+4, pro trislotove workstation desky (tedy slotu tam bylo vice, pac neco jede z chipsetu, typicky treti/ctvrte x4)

Toto sa ale bavime o X570 AORUS PRO kde sa pise ze:
Citace
The PCIEX8 slot shares bandwidth with the PCIEX16 slot. When using the 3rd Generation AMD Ryzen™ processors/2nd Generation AMD Ryzen™ processors and PCIEX8 slot is populated, the PCIEX16 slot operates at up to x8 mode.
nie o X570 AORUS ELITE?

24 linek je rozdeleno jako 16 PEG (pcie graphic) (16/8+8/8+4+4) a 4+4 GPP (general purpose), tyto jsou typicky x4 pro chipset a x4 pro NVMe (M.2), aby to nemuselo chodit skrz chipset a zabirat pasmo/piny/tdp.

PCIe se ti automaticky "prizpusobi" - tj. kdyz jedna strana umi jen 3.0, tak to pojede nanejvys v te rychlosti. A sirkou to bude taky automagicke - kdyz obe karty osadis, kazde deska posle pulku (8+8) linek. Ta "dvojslotova" deska totiz umi jen rezimy 16+0 a 8+8, mezi kteryma prepina podle existence karty ve slotu oznacenem PCIEX8.

Ad porovnani desek: ta vlevo je "jednoslotova" (vsechno PEG na 1 slot), a ta v pravo "dvojslotova" (s muxem).

Toto sa ale stale bavime o X570 AORUS PRO (vpravo) nie o X570 AORUS ELITE (vlavo) tam nevieme ako to je?

Kdysi jsem si dělal testy s Nvidií řady 900 zda dochází k propadu výkonu u GPU, která pracuje v řežimu x8 vs. x16. Výkon u x8 byl stejný jako u x16, ale když jsem mrkl na světhardware, tak to vypadá, že s posledními Nvidiemi řady 3000 už je ten propad výkonu (u hry Civilization VI) v módu x8 znatelný. Pokud při použití APU bude k dispozici pro PCIe jen mód x8, tak to je pěkně naprd. U iGPU Intelu je k dipozici pořád x16 (nevím teda jak to bude u nejnovějších grafik Xe od Intelu).

Rozdiel medzi 16x a 8x je zanedbatelny, vid https://www.gamersnexus.net/guides/2488-pci-e-3-x8-vs-x16-performance-impact-on-gpus
GPU ktoru mam je PCIe x16 gen3 takze si myslim ze 8x by jej malo stacit

Neplanujem APU (resp iGPU) riesim otazku aku dosku vziat aby som mohol v pripade potreby zapojit 2xGPU tak ze jedna ostane pre OS/hypervisor + HW akceleraciu videa a druha bude passtrought do VM. Kartu pre OS/hypervisor mozno ani potrebovat nebudem (ale chcel by som mat takuto moznost) v pripade ze video potiahne aj CPU a kldune by som si vystacil aj s jednou kartou na passtrought do VM.

Takze neviem ze ci X570 AORUS ELITE ja na toto dostatocna? Resp najeka ina doska ktora ma okrem PCIe16x aspon PCIe4x ze sa tam da pouzit este aspon sietova karta resp dalsi SATA radic. Neviem vsak ci je to mozne koli tomu co tu uz bolo spomenute

24 linek je rozdeleno jako 16 PEG (pcie graphic) (16/8+8/8+4+4) a 4+4 GPP (general purpose), tyto jsou typicky x4 pro chipset a x4 pro NVMe (M.2), aby to nemuselo chodit skrz chipset a zabirat pasmo/piny/tdp.
Lebo ak Ryzen 5 3600 ma pozitelnych 20 lanes tak:
8+8 pouziju 2 GPU
4 pouzije chipset
4 M.2
a skoncil som lebo neni co pouzit na PCIe kam by isla sietova resp SATA karta

Mam z toho hlavu ako tekvica a zacinam uz pomaly chapat preco je serverovy hardware lepsi na taketo veci.

20
Server / Re:Domácí virtuální server postavený na Proxmoxu
« kdy: 30. 12. 2020, 02:27:57 »
Este som sa chel opytat ze ak Ryzen 5 3600 podporuje 24 pcie lanes z toho je pouzitelnych 20 lebo 4 su komunikacia s chipsetom a jedna GPU zozerie 16 lanes druha GPU zozerie tiez 16 to je ked spravne ratam 32. Nieje to trosku problem? Niekde som cital ze vraj karty mozu chodit aj v rezime 8x len neviem ci to treba nastavovat v BIOSe alebo sa to prepne samo? Ak to pojde 2x8 znamena to ze este mi ostane dalsich 8?

ale posledne si napisal ze by to malo ist ako 16x + 8x co celkom dava zmysel lebo neviem naco mat dosku so Zen2 compatible ktora ma 2xPCIe16x - to mi dajak nevychadza

a zaroven to znamena ze tam uz nic ine nepripojim?
resp obe karty su PCI Express 3.0 x16 doska je pcie 4.0 tak neviem ci aj toto ma na to vplyv

21
Server / Re:Domácí virtuální server postavený na Proxmoxu
« kdy: 30. 12. 2020, 02:14:28 »
Este som sa chel opytat ze ak Ryzen 5 3600 podporuje 24 pcie lanes z toho je pouzitelnych 20 lebo 4 su komunikacia s chipsetom a jedna GPU zozerie 16 lanes druha GPU zozerie tiez 16 to je ked spravne ratam 32. Nieje to trosku problem? Niekde som cital ze vraj karty mozu chodit aj v rezime 8x len neviem ci to treba nastavovat v BIOSe alebo sa to prepne samo? Ak to pojde 2x8 znamena to ze este mi ostane dalsich 8?

ale posledne si napisal ze by to malo ist ako 16x + 8x co celkom dava zmysel lebo neviem naco mat dosku so Zen2 compatible ktora ma 2xPCIe16x - to mi dajak nevychadza

22
Server / Re:Domácí virtuální server postavený na Proxmoxu
« kdy: 30. 12. 2020, 00:13:08 »
Nasiel som napr toto https://forum.level1techs.com/t/gigabyte-x570-aorus-elite-iommu-groups/144937/37 ale neviem ci spravne chapem tomu co sa tam pise, chlapik proste skusal niekolko biosov az nasiel f10a a snim IOMMU vyzera takto:

Toto je porovnanie dosiek GIGABYTE X570 AORUS ELITE vs  GIGABYTE X570 AORUS PRO podla oficialnej stranky:

https://pasteboard.co/JHerTVJ.png


GIGABYTE X570 AORUS PRO by vraj mala vediet GPU passtrought dvoch GPU do dvoch VM. Je tam vidiet to co som spominal a teda ze ELITE verzia ma 1xPCIe pripojenu priamo ku CPU a PRO verzia ma 2xPCIe pripojenu priamo ku CPU. Ja si myslim ze pre moj use case kde chem 1 GPU chcem ponechat hypervisory a druhu GPU spravit passtrought to problem nieje alebo sa mylim?

23
Server / Re:Domácí virtuální server postavený na Proxmoxu
« kdy: 29. 12. 2020, 23:24:02 »
U Intelu (v mém případě), který má 16 linek by se dalo říct, že pokud 2 GPU se přepnou do řežimu x8-x8, tak s největší pravděpodobností budou ve stejné skupině a bude potřeba použít ACS patch, abych mohl jednu GPU předat do VM a druhou nechat Proxmoxu. Možná kdyby základovka nabízela režim x16-x4-x1 nebo x8-x4-x4, tak je šance, že obě GPU budou v samostané skupině. Ale provozovat GPU na x4 už může být omezující. Nejsem si jistý jak to má AMD Ryzen. Budeš muset hledat na netu info o IOMMU Groups pro konkrétní desku.
Pokud by síťová a SATA karta byly určeny pro hostitele (proxmox) a byly by ve společné skupině, tak by to nevadilo. Začalo by to vadit kdybys síťovku chtěl předat do VM a SATA kartu ponechat v proxmoxu - zase bys musel použít ACS patch.

Nasiel som napr toto https://forum.level1techs.com/t/gigabyte-x570-aorus-elite-iommu-groups/144937/37 ale neviem ci spravne chapem tomu co sa tam pise, chlapik proste skusal niekolko biosov az nasiel f10a a snim IOMMU vyzera takto:

Kód: [Vybrat]
IOMMU Group 0:
00:01.0 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge [1022:1482]
IOMMU Group 1:
00:01.1 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse GPP Bridge [1022:1483]
IOMMU Group 10:
00:08.0 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge [1022:1482]
IOMMU Group 11:
00:08.1 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Internal PCIe GPP Bridge 0 to bus[E:B] [1022:1484]
IOMMU Group 12:
00:08.2 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Internal PCIe GPP Bridge 0 to bus[E:B] [1022:1484]
IOMMU Group 13:
00:08.3 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Internal PCIe GPP Bridge 0 to bus[E:B] [1022:1484]
IOMMU Group 14:
00:14.0 SMBus [0c05]: Advanced Micro Devices, Inc. [AMD] FCH SMBus Controller [1022:790b] (rev 61)
00:14.3 ISA bridge [0601]: Advanced Micro Devices, Inc. [AMD] FCH LPC Bridge [1022:790e] (rev 51)
IOMMU Group 15:
00:18.0 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 0 [1022:1440]
00:18.1 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 1 [1022:1441]
00:18.2 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 2 [1022:1442]
00:18.3 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 3 [1022:1443]
00:18.4 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 4 [1022:1444]
00:18.5 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 5 [1022:1445]
00:18.6 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 6 [1022:1446]
00:18.7 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Matisse Device 24: Function 7 [1022:1447]
IOMMU Group 16:
01:00.0 Non-Volatile memory controller [0108]: Samsung Electronics Co Ltd NVMe SSD Controller SM961/PM961 [144d:a804]
IOMMU Group 17:
02:00.0 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Device [1022:57ad]
IOMMU Group 18:
03:01.0 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Device [1022:57a3]
IOMMU Group 19:
03:02.0 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Device [1022:57a3]
IOMMU Group 2:
00:01.2 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse GPP Bridge [1022:1483]
IOMMU Group 20:
03:04.0 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Device [1022:57a3]
IOMMU Group 21:
03:08.0 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Device [1022:57a4]
07:00.0 Non-Essential Instrumentation [1300]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Reserved SPP [1022:1485]
07:00.1 USB controller [0c03]: Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller [1022:149c]
07:00.3 USB controller [0c03]: Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller [1022:149c]
IOMMU Group 22:
03:09.0 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Device [1022:57a4]
08:00.0 SATA controller [0106]: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] [1022:7901] (rev 51)
IOMMU Group 23:
03:0a.0 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Device [1022:57a4]
09:00.0 SATA controller [0106]: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] [1022:7901] (rev 51)
IOMMU Group 24:
04:00.0 Non-Volatile memory controller [0108]: Samsung Electronics Co Ltd NVMe SSD Controller SM951/PM951 [144d:a802] (rev 01)
IOMMU Group 25:
05:00.0 VGA compatible controller [0300]: Advanced Micro Devices, Inc. [AMD/ATI] Baffin [Radeon RX 460/560D / Pro 450/455/460/555/555X/560/560X] [1002:67ef] (rev cf)
05:00.1 Audio device [0403]: Advanced Micro Devices, Inc. [AMD/ATI] Baffin HDMI/DP Audio [Radeon RX 550 640SP / RX 560/560X] [1002:aae0]
IOMMU Group 26:
06:00.0 Ethernet controller [0200]: Intel Corporation I211 Gigabit Network Connection [8086:1539] (rev 03)
IOMMU Group 27:
0a:00.0 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD/ATI] Device [1002:1478] (rev c1)
IOMMU Group 28:
0b:00.0 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD/ATI] Device [1002:1479]
IOMMU Group 29:
0c:00.0 VGA compatible controller [0300]: Advanced Micro Devices, Inc. [AMD/ATI] Navi 10 [Radeon RX 5700 / 5700 XT] [1002:731f] (rev c1)
IOMMU Group 3:
00:02.0 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge [1022:1482]
IOMMU Group 30:
0c:00.1 Audio device [0403]: Advanced Micro Devices, Inc. [AMD/ATI] Navi 10 HDMI Audio [1002:ab38]
IOMMU Group 31:
0d:00.0 Non-Essential Instrumentation [1300]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Function [1022:148a]
IOMMU Group 32:
0e:00.0 Non-Essential Instrumentation [1300]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Reserved SPP [1022:1485]
IOMMU Group 33:
0e:00.1 Encryption controller [1080]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Cryptographic Coprocessor PSPCPP [1022:1486]
IOMMU Group 34:
0e:00.3 USB controller [0c03]: Advanced Micro Devices, Inc. [AMD] Matisse USB 3.0 Host Controller [1022:149c]
IOMMU Group 35:
0e:00.4 Audio device [0403]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse HD Audio Controller [1022:1487]
IOMMU Group 36:
0f:00.0 SATA controller [0106]: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] [1022:7901] (rev 51)
IOMMU Group 37:
10:00.0 SATA controller [0106]: Advanced Micro Devices, Inc. [AMD] FCH SATA Controller [AHCI mode] [1022:7901] (rev 51)
IOMMU Group 4:
00:03.0 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge [1022:1482]
IOMMU Group 5:
00:03.1 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse GPP Bridge [1022:1483]
IOMMU Group 6:
00:04.0 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge [1022:1482]
IOMMU Group 7:
00:05.0 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge [1022:1482]
IOMMU Group 8:
00:07.0 Host bridge [0600]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse PCIe Dummy Host Bridge [1022:1482]
IOMMU Group 9:
00:07.1 PCI bridge [0604]: Advanced Micro Devices, Inc. [AMD] Starship/Matisse Internal PCIe GPP Bridge 0 to bus[E:B] [1022:1484]

chapem tomu tak ze tam ma skupiny 25 a 29 a kazda tato skupina obsahuje len jednu kartu a nic ine. Teda passtrought by podla mna mal byt mozny bez akychkolvek problemov. Zaroven tam ale pise ze ma v BIOSe zapnute (okrem ineho) ACS. Znamena to teda ze aj Linux jadro musi ACS podporovat?

Cital som este ze tato doska ma na CPU priamo pripojeny len 1 PCIe slot (zvysne ma teda cez chipset, dobre tomu chapem?) a ze toto tiez moze byt z nejakeho dovodu problem, len mi nejako nedochadza ze preco (napr koli tomu ze to vychadza nejako z architektury ryzenov kde na chipset zostave menej lanes na PCI a teda moze byt mensia rychlost?).

24
Server / Re:Domácí virtuální server postavený na Proxmoxu
« kdy: 29. 12. 2020, 16:26:17 »
Všechno co chceš v Proxmoxu jde. Sam ho používám podobně.

Chcel som sa este opytat co je potrebne pre to aby mohli ostatne PC na lokalne sieti komunikovat s pfSense resp Pi-hole? Predpokladam ze exisuje nejaka moznost ako je tomu napr pri VirtualBoxe ze ma bridge mode, alebo nejaky virtualny interface s viacerymi IP alebo dake reverse proxy a pod? Pytam sa to koli tomu ci nieje nahoodu nutne robit nejake passtrought sialenosti so sietovou kartou a tym padom je clovek opat limitovany tym co mu IOMMU skupiny dovolia - ale pevne verim ze nie, len si to chcem potvrdit.

Pokud použiješ ZFS, tak pozor na paměť 1TB disku potřebuje 1GB RAM, já mám vše na ext4. Na doma mi to stačí.

Toto mas na host/hypervisor alebo je na to startnuta dedikovana CT/VM ktora to spravuje?

A: Rozdíl mezi virtuálním a passthroughnutým diskem při gamingu nepoznáš. Akorát pozor při kombinaci FS, který je copy-on-write a virtuálního disku. Při každé změně souboru (ve kterém je image disku) dokází k velké fragmentaci: https://www.reddit.com/r/btrfs/comments/5p3p5d/why_isnt_btrfs_recommended_for_kvm/ . Řešením je vypnutí COW pro adresář ve kterém se nacházi image disku.

Toto ma celkom prekvapilo lebo je do podla mna v kontraste s tym co hovoria ostatni diskutujuci ohladom virtualizacie diskov. Mam tomu chapat tak ze aj ked Windows bude bezat z obrazu disku tak bude bezat plus minus rovnako ako keby bol nainstalovany priamo na SSD? Samozrejme za predpokladu ze bezi len ten Windows a nie dalsich X virtualov co citaju/zapisuju na ten disk kde ma Windows obraz.


A: Asi tady není prostor to všechno rozebrat, ale řeknu to jednoduše. Na desktopu není problém (kromě výjímečných případů) pokud máš GPU v samostatné IOMMU skupině. V případně, že je ve skupině navíc jen PCI bridge, tak i tak by to mělo bez problémů fungovat (což je i můj případ). Problémy jsou hlavně u notebooků - https://gist.github.com/Misairu-G/616f7b2756c488148b7309addc940b28

Co som zatial cital tak viem ze s passtrought 1 GPU prakticky niesu problemy, tak ako popisujes. Uvazujem vsak este o jednej karte ktora by bola len pre host/hypervisor a nerobil by som passtrought. Na zaciatok ozaj len nieco co ma HDMI aby to pomohlo pri nastavovani, neskor mozno nieco co zvladne NVENC a NVDEC, takto by mohol na hoste/hypervisore bezat v kontajnery jellyfin ktory vyuzije HW.
Neviem vsak ci je takyto setup (dGPU kde jedna je passtrought do VM a druha je urcena pre host/hypervisor) tiez vo vacsine pripadov bez problemov alebo tam plati to iste co pri dGPU kde pre obe VGA robim passtrought?
Tiez by som zobral este aspon 1 sietovu kartu (ak mi tam ma bezat pfSense nech ma tato masina WAN a LAN) prip tiez SATA kartu pre viac diskov. A neviem ci aj toto ma dosah na IOMMU a s tym spojene problemy a ci si v pripade dosky ktora tento setup neumoznuje nezarubem cestu?

Dakujem

25
Server / Re:Domácí virtuální server postavený na Proxmoxu
« kdy: 28. 12. 2020, 22:04:37 »
Dakujem velmi pekne vsetkym za cenne rady. Trosku by som upresnil o co mi vlastne ide.

Mam k dispozicii jednu starsiu nvidu - nieje to ziadny zazrak ale starsie hry to potiahne. Tuto kartu planujem vyuzivat bud vo Windows gaming VM alebo Media server VM, no nie vsak v oboch sucastne. Windows gaming VM bude vyuzivana naozaj len obcas. Zaroven je to jedina karta ktoru mam k dispozicii a teda sa nejedna o dGPU system. Preto sa zaujimam o moznost robit passtrought tejto VGA do roznych VM podla potreby. VGA na hoste/hypervisore mi chybat nebude a vystacim si s SSH/WEB samozrejme v pripade ze Proxmox bude fungovat nadalej.

Co sa tyka transcode videa tak TV mam LG-55LF630V - FullHD (1920 x 1080 px) takze ak to chapem spravne tak vsetko co je nizse rozlisenie ako 1920 x 1080 px by malo na tejto TV fungovat bez transcode, a to je zrejme vacsina videii ktore planujem streamovat. Zatial vsetko co som spustal na TV z USB mi fungovalo bez problemov, takze je mozne ze transcode mozno ani nebude treba.

Chcel by som ale do buducnosti mat moznost pouzit system ako dGPU, avsak ani v tomto pripade by s najvacsou pravdepodobnostou neboli spustene Windows gaming VM a Media server VM naraz - to by asi vyzadovalo vyssiu investicu aku som ochotny spravit. A ako sa hovori chcem si trosku osahat ako to cele funguje, takze preto by som rad nejaku dosku s vyhladom na moznost 2xGPU passtrought. Na to aby som ale mohol spravit passtrought 2 kariet do nezavislych VM treba mat vhodnu zakladnu dosku ktora ma dve PCIe v roznych IOMMU skupinach, ak som to zle pochopil tak ma prosim opravte.

Pokud tam mas jen iGPU tak to bude hodne drbani se s GPU passthrough, protoze musis hypervisor bootovat jako headless, takze se to bude blbe ladit, pokud nejsi kamarad se seriakem. Ma-li ho tva deska ovsem.

Neplanujem iGPU ale dedikovanu VGA. Viem ze pri APU Ryzenoch je to problem, pri Intel to vraj nejak ide ale kazdopadne je to komplikacia ktora sa da vyriesit lacnejsou dedikovanou kartou, samozrejme za predpokladu ze ma doska spravne IOMMU skupiny. Problem je ale dopatrat sa ku doske ktora ma tieto spravne IOMMU skupiny.

U ostatnich veci - samozrejme taky muzes udelat 1:1 virtualni disk k nativnimu, ale moc jako passthrough to nepocitam - to by bylo az bys mel nejaky extra sata radic (jinej nez na hypervisor) ktery muzes predat do VM jiz jako PCIe device.

Ako je to potom s vykonom pri takomto rieseni? A pouzivas aj nejake vacsie obrazy diskov? Napr v mojom pripade si celkom neviem predstavit pouzit NAS VM inac nez ako passtrought. To by som mal na disku obrovsky obraz virtualneho PC v ktorom by som mal data? Alternativu vidim v tom ako to popisujes a teda ze to vyriesit uz rovno na urovni host/hypervisor.

Osobne me to prijde ponekud overengineered (ale chapu ze si lidi potrebuji hrat a ucit se necemu novemu), a tlak na vykon je na spatnem miste - napr. NAS node bude stejne mit jen GbE konektivitu (doufam ze nejedes wifi only) a tech 1GbE ti saturuje i raid nad hodne vrstvama virtualizace - jediny problem bude ve spotrebe, a ze namisto 10% cpu bude zatez 60% (ilustrativne!).

Wifi urcite nie. Skor si chcem nechat moznost dokupenia dalsej PCIe sietovej karty prave koli spominanemu sietovemu bottlenecku.
Ano virtualizacia je urcite overhead navyse. Ale pokial viem tak KVM ma cca 95%-98% vykonu nativneho zeleza, takze z toho tak nejak usudzujem ze by to nemuselo zabijat CPU a zrat elektrinu.

Holt to zacni zkouset nejak poskladat - nemyslim si ze tohle (kvuli rozsahu/pozadavkum) jde udelat na prvni dobrou a bude to na nekolik predelavani.. pokud si dokazes udelat nejake metriky a replikovat mereni (treba prenos dat vs. utilizace resp. spotreba), tak se muzes dooptimalizovat casem k dobremu reseni.

S tym tak nejak pocitam ze to nedam na prvy krat, skor mi ide o to zacat zo spraveho konca a nezarubat si cestu pripadnym upgradom a zmenam, preto som vdacny za kazdy nazor.

Co me tam chybi jeste je pak ondemand rizeni nejakych priorit - napr. "game mode" da vsechny VM krome te s grafikou do "nice" priority, ze dostanou pridel az kdyby nebylo co delat.

Toto by bolo urcite zaujimave a zistim ake ma Proxmox moznosti, prip si necham poradit ako to riesia ostatni. Kazdopadne Windows Gaming VM bude urcena skor na obcasne pouzivnie, nepotrebujem ju mat sartnutu 24/7 ale len ked chcem zahrat nejaku starsiu pecku. Prave koli tomuto ma zaujima moznost zdielat jednu passtrought GPU medzi roznymi VM tak ze jednu VM stopnem a startnem inu VM kde mozem vyuzit danu GPU (1. stop Media Server VM, 2. strart Windows Gaming VM, 3. zahrat hru, 4. stop Windows Gaming VM, 5. start Media Server VM).

PS: nejedu proxmox, ale obycejne qemu/kvm, a do VM koukam skrze RDP, pripadne spicy klienta - kdyz vm nebootuje dobre. FS/raid/lvm resim uz v hypervisoru.

SPICY umoznuje remote management este pred startom VM (teda vidim tam post, grub atd) a teda je to riesene nejak tak ze ani nepotrebujem mat vo VM nejaku dedikovanu aplikaciu? Je to nejako vyrazne pomalsie napr oproti sominanemu RDP?

PS: nejedu proxmox, ale obycejne qemu/kvm, a do VM koukam skrze RDP, pripadne spicy klienta - kdyz vm nebootuje dobre. FS/raid/lvm resim uz v hypervisoru.

Co sa tyka FS/raid/lvm tak toto zvazujem ako by bolo najlepsie. Pokial by som urobil passtrought a nastavil to v NAS VM tak si myslim ze stale zostava moznost pripojit tieto disky do host/hypervisor nakolko by to mal byt plnohonotny RAID nad celym diskom a nie nad imageom. Benefit vidim mozno v tom ze NAS VM nemusi vidiet ine disky nez tie nad ktorymi ma spravit RAID. Na druhej strane ako tu uz bolo spominane treba na to nejaky radic ktory mozem passtrought do VM.
Nema s tym niekto skusenosti ako je tomu pri Ryzenoch a ci je mozne mat SATA pre host/hypervisor a ine SATA pre konkretnu VM? Predpokladam ze to je opat zalezitostou IOMMU skupin.


Všechno co chceš v Proxmoxu jde. Sam ho používám podobně.

To som rad :)

Nemusíš na vše mít jako VM na některé věci ti stačí kontejner. 
VM jsou jako opravdové samostatné počítače, můžeš mount co chceš.
CT (kontejnery) mohou mount jen svazky připojené k samotnému Proxmox, to může být omezující.

Ano tak nejak som tomu pochopil

Passthrough bych se snažil spíš omezit, to nepoužívám - může být obtížnější nastavit a provozovat. Pro připojení 1GBps síťovkou nebude určitě připojení disků skrz Proxmox vůbec vadit.

Mas na mysli passtrought ak spravne chapem?

Pokud použiješ ZFS, tak pozor na paměť 1TB disku potřebuje 1GB RAM, já mám vše na ext4. Na doma mi to stačí.

Skor som uvazoval nad BTRFS koli absencii ECC. ECC neriesim momentalne pre to ze si este viac zuzim moznosti na vyber zakladnej dosky ktora ma aj dobre IOMMU skupiny a aj ECC. Moznoze IOMMU precenujem a nechapem tomu celkom spravne takze si rad necham poradit.

Pro transkodování na PLEX potřebuješ výkonný CPU nebo akceleraci GPU.

Primarny use case je strem videa na full HD TV, mozno obcas mobil/tablet.

Uvaž opravdový serverový HW, já mam Xeon e3-1270v2 + 16GB ECC RAM, to je myslím reálné minimum. Tato konfigurace zvládne 1 video stream z 4k na FullHD, více ne.

Intel Xeon E3-1270 V2 @ 3.50GHz - passmark score: 6552
AMD Ryzen 5 3600 - passmark score: 17860

Chapem ze passmark je X parametrov CPU zhustenych do jedneho. Ale uvadzam to na porovnanie. Musim brat ohlad aj na spotrebu a hlucnost. Vyhodu v Xeone vidim v HW transcode videa, ale alebo mi este nieco unika?

Asi budeš mít problém s uspáváním disků.

Myslis pri pass trought? Preco je to problem, pouzivas uspavanie resp SMART?

- zapomeň na ZFS a freeNAS. Je to velmi pomalé, zřejmě to má nějaký problém s nenativním diskem

Ja by som rad HDD passtrought do NAS VM potom by to uz malo byt nativne, ci? A skor ako ZFS davam prednost BTRFS, koli nizsim HW narokom.

- obecně dobré NAS VM řešení je docela problém, optimální cestu jsem zatím nanašel, obecně mám problém oproti nativním s rychlostí

Bavime sa stale o passtrought HDD ked spravne chapem? Ja som zil v tom ze ked je to passtrought tak je to vykon blizky nativnemu na 95%-98%. Nemoze to byt dane napr aj architekturou zakladnej dosky (mam na mysli ci je SATA radic skutocne v PCIe 8x alebo len v PCIe ktora sa tvari ako 8x ale to 2x ?)

- spindown disků při pass nefunguje

Hmm uz to tu bolo spomenute .... ma vobec spindown zmysel pri HDD pre NAS z pohladu setrenia zivotnosti alebo je to skor o setreni energie?

- pro pci pass je trocho problém s HW, protože poměrně nečekaně to na mnoha platformách (třeba HP server gen 8) nemusí fungovat dobře. Naopak mám třeba levnou desktopovou sesku a coffe lake CPU, kde mi jedou 4 karty....

Co som sa zatial docital tak s 1 VGA by vraj byt problem nemal, s 2 to uz moze byt problem, tiez tu bolo spomenute ze je problem u notebookov. Intel ma zrejme v tomto navrch oproti AMD.

- jak budeš přenášet obraz z pci pass karet? Optimum je na tu kartu mít asi fyzický monitor

Ano tak, resp som na to chcel napojit spominanu TV a hrat sa prilezitostne na nej.

- bude to žrát, počítej klidně 100W ILDE, PM v těchto konfuguracích není nic moc

Toto som pravdupovediac nikdy nepochopil podla coho sa to da vyratat (ak sa vobec da). Cital som niekde ze AM4 ma max 142W limit, PCIe 75w, plus nejake disky doska atd to mi vychadza max na 300W ale nikto neodporuca na takuto zostavu 300W zdroj ale to je asi tema na ine vlakno.


- serverový HW je na to lepší, ale žere a je hlučný....

Stretol som sa sa uz s tymto nazorom. No nikdy som nepochopil ze preco konkretne je lepsi server hardware? Ma to byt home server takze mi netreba nejaky hot(swap|plug|spare) a prezijem aj downtime. Zato vsak hlucnost, sporeba a to ze to nemam kam ulozit ked nemam rack je dost problem.


-ad pokud budeš mít nVidia, je problém odlišit, zda GPU nefunguje kuli problému s pcie pass a nebo detekci VM v nVidia driverech (ale to se dá v proxmoxu obejít. Doporučuji ale nejpve otestovat pass na nějakém bezproblémovějším hw)

Tusim z ohoto dovodu sa robia tie dumpy vBIOSu o ktorych som pisal v otazke resp v Proxmoxe som tusim videl ze to ide obist cez nejake parametre virtualky (ak hovorime o tom istom?)

Tady se musím připojit k názoru. ZFS ve virtualizaci nemá moc smysl, resp. jedině tam, kde se hodí jeho snapshoty výměnou za pokles výkonu. ZFS má smysl na bare metal, kde se o disky nedělí s ničím jiným, jinak to nejde vyladit a výsledek je katastrofa. Obecně lze říct, že aby se výhody ZFS projevily, je potřeba mít 4 rotační disky + 2 SSD + hafo RAM (pokud potřebujete deduplikaci, tak desetkrát hafo RAM). V případě FreeNAS je ještě potřeba další disk na samotný systém.

FreeNAS je navíc potřeba velmi pracně naladit, přes parametry v loader.conf, rc.conf a sysctl.conf. Jakkoliv je to prakticky stejný systém, co používá iXsystems v komerčních produktech, jejich know how tkví v tom, že to mají sladěné, aby to fungovalo správně. Ve free verzi na tom zabijete dlouhé večery a ve virtualizaci je to nesmysl na druhou.

Ako som spominal najradsej by som BTRFS koli mensim narokom na HW voci ZFS + passthrough disky, neviem ci je to to iste ako tebou zmienena virtualizacia ZFS? Vies prosim o nejakom zdroji kde sa pojednava o takomto "narocnom" HW setupe - 4 rotační disky + 2 SSD + hafo RAM (pokud potřebujete deduplikaci, tak desetkrát hafo RAM) - celkom ma to zaujima.


6. V pripade ze chem pouzit aj mysku a klavesnicu v danej VM potrebujem spravit aj USB passtrought?
A: USB pass je jedna varianta, asi nejjednodušší a zároveň nevytváří latenci což je u her důležité. Někdo požitá Synergy, tam bych se latence ve hrách už trošku obával. Mně vyhovuje další způsob a to pomocí evdev: https://www.reddit.com/r/VFIO/comments/7hjhsj/evdev_passthrough_mouse_not_reacting_to_hotkey/

Tusim som kdesi cital ze v pripade ze je USB v IOMMU v skupine spolu s inymi zariadeniami pre ktore nechcem robit passtrought tak je moznost nejakeho virtualneho USB a tam to potom ide? Ak taram oprav ma prosim, resp tebou spominane riesenie cez evdev dovoluje aj nieco taketo?

Nic moc. Záleží kolik chceš mít zároveň spuštěných jiných VM, každá VM ubírá CPU, takže kdybys měl dobrou GPU pro VGA pass, tak by se ti mohlo stát, že CPU bude úzké hrdlo. Navíc každá VM si ukousne pevně danou RAM, takže jak ti už někdo radil je na zváženou jestli raději nepoužít kontejnery.

Kontainerom sa vobec nebranim

PS: opat velka vdaka vytrvalcom co to docitali :)

26
Server / Domácí virtuální server postavený na Proxmoxu
« kdy: 28. 12. 2020, 02:40:12 »
Ahojte,
uvazujem nad postavenim mensieho domaceho serveru ktory by mal v sebe kombinovat nasledujuce vlastnosti (resp virtualne stroje - VM):
1. NAS VM
2. Niekolko docasnych VM
3. Media server VM
4. Windows gaming VM
5. Niekolko stalych VM (pihole, pfsense ...)

Nic podobne som predtym nerobil a momentalne zbieram info ako to cele dat dokopy a vychadza mi ze s Proxmoxom by to malo ist. V niektorych vieciach si niesom celkom isty a preto by som sa rad poradil.

Disky a ich ucel v celom rieseni:
1. Proxmox: 1x disk kde bude instalacia Proxmoxu - nieco male a rychle (m2 alebo SSD)
2. Proxmox: 1x disk kde budu obrazy virtualnych strojov - nieco vacsie ale stale dost rychle (SSD)
3. Passtrought do NAS VM: 2x disky pre NAS (RAID 1)


NAS VM
Toto myslim ze by mohlo fungovat v ako VM v ktorej bezi napr Rockstore resp Freenas (pripadne manualna konfiguracia) do ktorej by som spravil passtrought dvoch diskov urcenych pre NAS. Nalsedne vramci Rockstore by som vytvoril RAID a ponastavoval vsetko potrebne. Toto by idealne malo byt nejako spojene spolu s niecim ako je napr Nextcloud resp Duplicati a pod. Takze predpokladam ze tento "synchronizacny" software bude nutne nainstalovat do tejto VM aby bol schopny pracovat s diskami pod RAIDom. Taktiez by som tu nainstaloval SMB, NFS, CIFS aby bolo mozne pristupovat na tento obsah.

Q:
1. Je pass trought diskov (dana VM ma pristup ku celemu deviceu fyizickeho disku) mozny v Proxmox, a teda dana VM dokaze napr vytvarat RAIDy a pod?
2. Nextcloud napr umoznuje instalaciu pomocou Dockeru, viem napr startnut separatnu VM pre Nextcloud a pouzit data z NAS VM?

Niekolko docasnych VM
Tu si myslim ze by to malo ist relativvne jednoducho vytvorim/zapnem resp vypnem/zmazem nejaku virtualku podla potreby. ISO obrazy pre pripadne systemy by mali byt ulozene na vyssie spominanej NAS VM. Obraz disku samotnej VM by mal byt ulozeny na disku urcenom pre obrazy virtualnych strojov.
Zvazujem do buducna vytvorit RAID (podla financii uvidim ci 0, 1 resp 10) z disku urceneho na obrazy VM. Oficialne Proxmox nepodporuje SW RAID avsak si myslim ze na host PC kde bude Proxmox nainstalovany by malo ist mdadm alebo nieco ine takze tam nejake obmedzenie nevidim.
Neviem vsak aky file system je vhodny na obrazy VM. Povodne som zvazoval BTRFS najma koli moznosti robit snapshoty a setreniu miesta, avsak vraj tento FS nieje vhodny na obrazy VM. o ZFS az tak neuvazujem koli absencii ECC pamati v predpokladanej zostave. Proxmox vsak dokaze pracovat s qcow2 ktory uz snapshoty podporuje.

Q:
1. Aky file system zvolit na disk kde budu obrazy VM - BTRFS snapshot vs qcow2 snapshot?
2. Aky najlepsi FS pouzit v pripade pouzita Proxmox (qcow2) snapshotov?
3. Je nutne v pripade Proxmox (qcow2) snapshotov snapshotov pouzit ZFS, resp naco je podpora ZFS v Proxmoxe?
4. Ma volba FS na ktorom su ulozene obrazy VMs vyplv na celkovy vykon VM?
5. ma Proxmox nejaky problem so SW raidom?


Media server VM
Toto by tiez mala byt samostatna virtualka kde bude bezat zrejme Jellyfin (Plex je tiez v hre no Jellyfin ma vraj lepsie moznosti konfiguracie). Multimedialny obsah by mal byt dostupny z NAS VM. Tu sa trosku obavam dvoch veci:
- networkingu - teda aby Jellyfin/Plex client (napr na TV) mal pristup k Jellyfin/Plex serveru - myslim ze toto je urcite nejako riesitelne vramci Proxmox networkingu
- performance - ako najlepsie nazdielat multimedialny obsah. Myslim ze toto by tiez malo chodit tak ze Media server VM si mountne obsah z NAS VM (vraj je na tom lepsie SMB ako NFS koli FS modification watches absencii).

Q:
1. Je mozne vramci Proxmoxu nejako nastavit aby boli konkretne CT/VM dostupne z LAN siete?
2. Je mozne pristupovat na jednotlive sluzby (SMB, NFS, CIFS) z jednej VM na inu VM ?

Windows gaming VM
Toto je z jmojho pohladu asi VM ktora vyvolava najviac otazok:

Q: Disk
1. Je lepsie pouzit nativny disk cez passtrought koli vykonu alebo obraz VM napr koli spominanym snapshotom? Resp mozem mat najlepsie z oboch?

Q: VGA Passtrought
2. Po VGA passrought tato karta prestane byt dostupne v host machine (na Proxmoxe)?
3. V pripade ze spravim VGA passrought pre konkretnu VM mozem tuto VM nasledne vypnut a pouzit passtrought pre inu VM (bez restartu Proxmoxu)
4. Pre VGA passrought nepotrebujem mat drivery pre tuto kartu na host machine (na Proxmoxe) ale na prislusnej VM?
5. Ak pripojim monitor do VGA vystupu tak az do momentu pokial Proxmox nastartuje prislusnu VM do kt je tato GPU passtrought tak by som mal vidiet vystup z Proxmoxu, nasledne ked startne prislusna VM uvidim obraz danej VM?
6. V pripade ze chem pouzit aj mysku a klavesnicu v danej VM potrebujem spravit aj USB passtrought?
7. Dokazem spravit VGA passtrought s jednou VGA kartou? Bude Proxmox schopny nastartovat do "headless" rezimu a bude schopny spustat ostatne VMs a budem ho schopny ovladat cez WEB resp SSH?
8. Aky je dnes stav pre GPU passtrought? Videl som rozne tutorialy od pomerne jednoducho vyzerajucich (nastavit iommu v grube Proxmoxu a v GUI VM naklikat zariadenie do VM) cez zlozitejsie (dumpovanie vBIOSu z VGA, jeho nasledne modifikovanie a nastavenie pre konkretnu VM, hlavne v kombinacii s UNRAID a absolutne som nepochopil aky to ma zmysel) az po asi najviac zlozite (manualne kompilovanie Qemu a jadra a instalaciu roznych driverov a neviem coho vsetkeho este)



Cele by to malo bezat na Ryzen 5 3600, s ECC ramkamy zatial nepocitam. Pokial viem tak pre spravne fungovanie GPU passtrought je nutne mat okrem CPU ktore to podporuje aj zakladnu dosku. Viete mi prosim poradit nejaku pre Ryzen 5 3600? Ja to chapem tak ze samotna VGA by mala byt v samostatnej IOMMU skupine aby bolo mozne spravit GPU passtrought len tej skupiny kde je VGA a nie dalsich zariadeni ktore by tam potencionalne mohli spadnut pretoze sa robi vlastne passtrought danej IOMMU skupiny a nie konkrenteho zariadenia.


Budem vdacny za colkovek co pomoze, konstruktivne pripomienky, kritiku, navrhy na zlepsenie, best practises, linky na howtos atd atd.

A dakujem kazdemu co to docital az do konca

27
Hardware / Re:Několik otázek ohledně spotřeby PC
« kdy: 15. 12. 2020, 09:25:35 »
Viete mi prosim poradit ci niektore z nasledujucich picoPSU https://www.heureka.sk/?h%5Bfraze%5D=picopsu by boli vhodne do tejto dosky https://www.alza.sk/asrock-j5005-itx-d5277782.htm ceny sa tam lisia od 4E do 130E. Predpokladam ze potrebujem adapter (taky ako na notebook) + nieco co ma klasicky ATX 24 pin aby to slo zapnut do dosky a aby to malo aspon jeden molex ktory nasledne cez redukcie prerobim na SATA. Neviem si vsak celkom dobre predstavit ako dostanem SATA napr z tohoto https://www.jscomputers.sk/produkt/AC_Power_adapter_-12V-_16A-_192W-_+_PicoPSU_Adapter.html

Dakujem

28
Hardware / Re:Výběr hardware pro NAS
« kdy: 15. 12. 2020, 03:29:27 »
Dakujem vsetkym velmi pekne za rady

Bednu bych vzal nějakou přiměřeně velkou, tower je na tohle dost overkill. Teda za předpokladu, že nebude někde v garáži nebo na půdě, tam bych naopak vzal co nejlevněší a nekoukal až tak moc na fuknčnost. Dokup si filtry na vstupní větráky, pokud by je bedna neměla.

Bednu som rozmyslal preto ATX lebo do buducna zrejme vyuzijem 4x3.5 SATA a mITX resp mDTX bedne pre 4x3.5 SATA je problem najst - ak aj su tak su hodne drahsie ako ATX. A tym ze je vacsia by mala byt dobre vetratelna (su v nej 4 ventilatory)

Kdybys našel zdroj s menším výkonem (ideálně 250W, což se možná ani nedělá... tak 300W?), bylo by to lepší - viz druhý vlákno. Možná zvážit bednu, kam se dává menší zdroj (typ zdroje SFX nebo TFX, např: https://www.czc.cz/seasonic-ssp-300sfg-300w/190644/produkt nebo https://www.czc.cz/seasonic-ssp-300tgs-300w/190645/produkt), tyhle zdroje se dělávají i v menších výkonech, takže nebudou takový ztráty.

Nasiel som nejake 200W a 250W tu https://datacomp.sk/pc-komponenty-pc-skrinky-a-zdroje-pc-zdroje-pico-psu_c13439509.html
 ale ani za svet sa neviem dopatrat ku efficiency grafu a mam pocit ze tento format je pre 1U alebo nieco podobne takze to zrejme bude nekompatibilne so vsetkymi bednami. Ale ako tak pocitam (a ako tu aj bolo spomenute) tak aj 300W resp 200W je overkill (ak je odhadovana spotreba od 20W do 50W ako tu uz bolo spominane)
 
300W zdroj:
20W je cca 6.6% zdroja
50W je cca 16.6% zdroja

200W zdroj (mozno ak bude viac diskov tak to bude lepsie):
20W je 10% zdroja
50W je 25% zdroja
 
Aky zdroj je vlastne optimum na taku zostavu? Co som cital tak napr pevne disky v nejakych peakoch mozu dosahovat vyrazne vyssiu spotrebu https://superuser.com/questions/565653/how-much-power-does-a-hard-drive-use

Tu som sa docital ze NAS sa da postavit so spotrebou cca 72W aj na Xeone avsak Xeon E3s sa uz neda zohnat https://www.reddit.com/r/HomeServer/comments/9f10bx/surprising_notes_on_power_usage_home_server_vs_nas/
 
Skusim teda trosku pozmenit otazku:
nejde mi az tak o spotrebu (nemam momentalne po ruke svoju fakturu ale 72W zariadene 24/7 za rok spravi cca 100E ked dobre ratam https://www.calculat.org/sk/energia/spotreba-elektriny.html a to je vpohode)
minimalne 4 x 3.5 na SATA + m2 (alebo bez m2 ale 6 x 3.5 SATA)
moznost pustit povedzme aj narocnejsiu virtualku (Windows 10)
pouzitie ako media serveru Plex resp Jellyfin (4k ma nezaujima)
klasicka bedna (akykolvek format)
cim tihsi PC tym lepsie (pasivne chladeny by bol super ale to je asi utopia)
2x ethernet na doske by bol fajn koli bondingu (ak nie posluzi aj USB konvertor na RJ45)
ECC by bolo fajn ale planujem BTRFS nie ZFS kde je to udajne viac kriticke
najlepsie z novych komponentov ale mozu byt aj repasovane ak je k tomu doklad
v buducnosti mozno vyuzit VGA (prevazne na vypocty nie na hry)
v buducnosti mozno vyuzit ako firewall/router

co by ste mi odporucili?

Dakujem velmi pekne

29
Hardware / Re:NAS server pro domácí použití
« kdy: 15. 12. 2020, 02:55:23 »
Mozem sa opytat autora otazky (ale aj vsetkych zucastnenych ktori tu prispievali ze si planuju zaobstarat NAS) pre co sa nakoniec rozhodli a z akeho dovodu? Riesim totiz rovnaky problem. Vdaka

30
Hardware / Re:Několik otázek ohledně spotřeby PC
« kdy: 15. 12. 2020, 01:54:53 »
Dakujem vsetym za rady, ako to uz (u mna) byva, vyvstalo viac otazok ako odpovedi :)

PicoPSU jsem zkoušel na 12V baterii a po zapnutí PC mi odpálilo desku.

podarilo sa to zreklamovat?

IMHO se nevyplatí řešit spotřebu zdroje u NAS úplně do extrému. PC zdroj má v sobě spoustu ochran proti přepětí, přetížení a pokud se něco podělá, tak může zachránit disky.

Znamena to teda ze PicoPSU nema ochrany ako klasicky zdroj?

Vůbec bych neřešil tyto teoretické úvahy - ničeho reálného se nedopočítáš. Připoj počítač na měřák spotřeby a po třech dnech (abys tam měl provoz i uspání) se podívej na skutečné hodnoty. Následně to přepočítej na peníze a rozhodni se, jestli je pro tebe přijatelné.

Ano to by bolo najlepsie, problem je ze zatial ziadny hardware nemam a zvazujem co kupit.

V zátěži, ale spotřeba vzroste výrazně a u některých CPU i překročí TDP, byly o tom články cca před půl rokem.

Tu na roote?

Tak HP microserver gen10 žere s 2ma diskama v idle 43W. Při zátěži skoky na 70W. Je tam AMD X3421 APU, což je výkonově podobný cpu jako E3-1220Lv2, jen žere 2x víc. Na obou serverech je proxmox a ZFS. Spotřeba jde tedy omezit hlavně přes CPU, ale na novějších filestémech je výkon CPU potřeba, takže níž už moc jít nejde.

Mozem sa opytat o aku verziu gen10 sa presne jedna?

Stran: 1 [2] 3 4 ... 9