DaVinci Resolve používá s NIVIDA kartami CUDU a počítá s 32 bit floaty v celé pipeline. Tam nemá Quadro žádnou výhodu (resp. je to stejně ponížené jako GeForce oproti datacenter modelům
. A často trochu pomůže prostě vyšší takt u těch herních karet. Ne že by na GeForce byl Resolve specificky a úmyslně optimalizovaný.
On je specificky "optimalizovany" pro nektere karty, napr. v 18.5.1 se nachazi tyhle retezce (prvni v okoli kodu na neuronky, takze muze jit jak o optimalizaci na vice vram), nebo naopak nejaky quirk na reseni problemu (K6000 a 1660):
...
To by dávalo smysl. Quirky na bugy v konkrétních modelech jsou v mnoha programech. A naopak třeba pro modely s dvojnásobnou paměti můžou použít nějaký jiný způsob práce s těmi neuronkami, byť je pak stejně otázka, proč si tu velikost dostupné VRAM nezjistí nějakou runtime detekcí a jsou tam nějaké hard-coded stringy.
Ale upřímně se přiznám, že zrovna ty funkce s neuronkami (AI upscale, maskování, generování Z bufferu), co jsou postupně rozšiřovány v posledních verzích Resolve, jsem nikdy takhle napřímo GF/Quadro neporovnával.
Dělal jsem to před pár lety a týkalo se to standardního dekódování RAWů, korekcí, transformací, exportu v různých projektech. Kdy tam opravdu žádný rozdíl nebyl, nebo když byl to to bylo díky vyšším taktům pamětí ve prospěch GF.