Věděli byste, jak funguje elektronická stabilizace obrazu u kamer (například gopro) z hlediska nějakého stavového diagramu, flow a časového zpoždění?
Teoreticky by otázka seděla i na optickou stabilizaci i stabilizaci čipu....
Například kamera s 12 MP čipem, ze kterého dělá video 1920x1080 crop (a zvládá to se stabilizací i v 60fps), tudíž políčko má dostatečný prostor kolem (nicméně asi to ve skutečnosti funguje tak, že snímá v 2700x1520@60 a pak ořezává, 4K(8MP)@60 natož 12MP@60 nezvládá)
Stabilizace umí:
-korekci rotace
-korekci posunu (yaw / pitch na velkých vzdálenostech)
- zoom patrně ne
Jádro pudla je v tom, že stabilizace má nějaké výstupy:
- Provést rotaci obrazu o A stupňů
- zvětšit/zmenšit obrazem faktorem Z
- provést ořez na cílové políčko se středm X0,Y0
= to vše pro konkrétní snímek zvlášť
Stabilizace má i nějaké vstupy:
-(1)vstupy z gyroskopu (to by asi teoreticky stačilo, jde o "derivaci" náklonu získanou z čidla náklonu, které se získává měřičem zrychlení, otázka co je přesnější), údajně snímají na frekvenci kolem 100Hz-kHz
-(2)teoreticky samotný obraz může být vstupem, ze kterého se můžou získávat ůdaje pro stabilizaci (ovšem na mnohem nižší frekvenci rovné framerate, ale ve vysokém rozlišení asi patrně) --- takto pracují i efekty POST-stabilizace v střihových programech.
Mě by zajímalo, jak je to celé řetězeno, z hlediska toho, jestli použití stabilizace vnáší to zpracování videa nějaké zpoždění, zároveň, jestli tam to má nějaké frekvenční anomálie (že třesení v určitém rozsahu frekvencí to stabilizuje dobře a v jiném vůbec)
Případně zda stabilizace pracuje realtime a zda se pro stabilizaci používají jako vstup samotná obrazová data(2) nebo jen ty senzory(1).