Hardware s nízkou spotřebou pro domácí lab

Re:Hardware s nízkou spotřebou pro domácí lab
« Odpověď #30 kdy: Dnes v 20:26:48 »
A já myslel že na podobné experimenty jsou vhodné cloudové služby.
Plno jich je zadarmo.


Kit

  • *****
  • 942
    • Zobrazit profil
    • E-mail
Re:Hardware s nízkou spotřebou pro domácí lab
« Odpověď #31 kdy: Dnes v 20:34:39 »
A já myslel že na podobné experimenty jsou vhodné cloudové služby.
Plno jich je zadarmo.

Clouds používám k takovému účelu, ale někteří uživatelé chtějí mít to železo doma.

Re:Hardware s nízkou spotřebou pro domácí lab
« Odpověď #32 kdy: Dnes v 22:00:44 »
Ahoj,

Minulý týden jsem upgradoval můj homelab na AMD Ryzen max+ 395 (Strix Halo) 128GB RAM, 2x SSD, total 5GB, network 5Gb+2.5Gb, který beží 24/7, dual boot, hlavní system ubuntu 24.04, idle 7-10W, max 140-200W,

Tohle není ani trochu fér! ;-D

Kolik to má jader, 16C/32T ? Dělají se taky varianty 8C/16T a 12C/24T.

Ta věc má mimochodem taky integrovaný Radeon a NPU... Je pro to NPU v Linuxu nějaké využití?

Re:Hardware s nízkou spotřebou pro domácí lab
« Odpověď #33 kdy: Dnes v 22:25:41 »
Ahoj,

Minulý týden jsem upgradoval můj homelab na AMD Ryzen max+ 395 (Strix Halo) 128GB RAM, 2x SSD, total 5GB, network 5Gb+2.5Gb, který beží 24/7, dual boot, hlavní system ubuntu 24.04, idle 7-10W, max 140-200W,

Tohle není ani trochu fér! ;-D

Kolik to má jader, 16C/32T ? Dělají se taky varianty 8C/16T a 12C/24T.

Ta věc má mimochodem taky integrovaný Radeon a NPU... Je pro to NPU v Linuxu nějaké využití?

Mám notebook s tímhle CPU a 64G RAM. Nedávno jsem zkoušel, jak na tom poběží klasická llama.cpp a nebyl problém svižně pracovat s modely do cca 50GiB. Přes vulkan a jen s otevřeným ovladačem. Jestli se používalo i NPU netuším.
Spotřebu v idle potvrzuju.

Re:Hardware s nízkou spotřebou pro domácí lab
« Odpověď #34 kdy: Dnes v 22:56:08 »
Nedávno jsem zkoušel, jak na tom poběží klasická llama.cpp a nebyl problém svižně pracovat s modely do cca 50GiB. Přes vulkan a jen s otevřeným ovladačem. Jestli se používalo i NPU netuším.

Nejspíš ne. Co vím, tak upstream llama.cpp nemá žádný oficiální backend pro tahle NPU. S tím Strixem to bude používat buď Vulkan nebo HIP.
Ale AMD má nějaký svůj fork, kde to je dostupné.. ale použitelné omezeně.
viz https://github.com/ggml-org/llama.cpp/issues/14377
Co se týká hardwaru samotného, tak v mainline kernelu je pro to určitě modul.. drivers/accel/amdxdna

Jinak vůbec to neznám detailně a konkrétní HW se mi zatím nedostal do ruky. Ale nicméně jestli to chápu správně, tak hlavní benefit toho NPU je, že to má v porovnání s GPU daleko menší spotřebu, ale je to pomalejší a daleko míň univerzální.. Ta idea podle mě byla, že se to hodí primárně na nenáročný běh nějakých specifických menší modelů, co dělají třeba pre-procesing promptů, řeší třeba audio nebo obrazové vstupy přes CNN.. než se to finálně pošle do většího LLM. Buď v cloudu (jako třeba Copilot), nebo i lokálně, pokud bude běžet na GPU (byť jsem zatím žádný takový NPU+GPU hotový hybrid neviděl, ale extra jsem to nehledal).