Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - Michal Šmucr

Stran: [1] 2 3 ... 32
1
Sítě / Re:winbox linux vs windows
« kdy: 12. 09. 2025, 13:38:38 »
Winbox používám na Linuxu od té doby, co to zveřejnili, teď mám z Flathubu 4.0beta30.
Používám to s více RouterBoardy, Hexy atp.
Jediné, na co jsem v některých předchozích betách narazil, bylo to, že blblo připojování přes Neighbors a MAC discovery (výběr nahoře select from:), ale jakmile jsem tam normálně uložil spojení přes IP adresu a používal Saved, tak to bylo v cajku.
Teď se zdá, že mi funguje se zmíněnou verzí i to discovery.

2
Sítě / Re:Cetin terminátor a port forwarding
« kdy: 11. 09. 2025, 12:38:33 »
Jen ještě poznámka k tomu Wireguardu a jeho snadnému použití.. ne že by se to nedalo rozběhat nebo to byla raketová věda, ale..
Na normálním Synology DSM je nativně podporované OpenVPN (a L2TP/IPSec, PPTP), jen se přidá služba VPN Server a dá se to komplet naklikat z UI. Pak už stačí jen promapovat, povolit zmíněný OpenVPN port zvenku. Dostává to všechny aktualizace přímo od Synology, je to fakt easy.
U Wireguardu je to složitější, protože v jejich Linux distru není vůbec ten kernelový modul. Dá se zkompilovat nebo stáhnout od třetí strany pro konkrétní minor verzi DSM a architekturu (podle procesoru, co je v bedně) a nainstalovat.
Pak je potřeba za to ještě odněkud tahat.. jsou v podstatě dvě možnosti, buď si do DSM zahackovat nějaký init, co postaví ten tunel, nebo to řešit v kontejneru (potom, co si nainstaluju odpovídajcí službu).
Já to také někde používám a volil jsem druhou variantu. Funguje to v pohodě, ale minimálně to chce trochu nějaký linuxový síťový základ - routování, obsluha firewallu, ruční nastavení wg atp.
Zásadnější věc pak jsou samozřejmě aktualizace DSM.. tam už člověk musí dávat trochu pozor, případně to zopakovat a doufat, že třeba minor update něco nerozstřelí.

Ano geekovské řešení je koupit si třeba další RPi (Martin pak Odroid ;) ) a rozběhnout tu VPN mimo NAS.. Případně vyměnit router, pokud už tenhle nepůjde přeflashovat na OpenWRT, protože ten zmíněný TP-Link taky WG nepodporuje. A pak si konečně postavit tu správnou hub and spoke topologii přes tunely na VPSce.

3
Sítě / Re:Cetin terminátor a port forwarding
« kdy: 11. 09. 2025, 11:53:29 »
Vždyť tu VPN, o které píše, taky musí nakonfigurovat. A zrovna WireGuard je vyloženě nastav a zapomeň. Ale je fakt, že vlastně moc nechápu, k čemu ji v té jeho popisované konfiguraci vůbec potřebuje, ta je tam tak nějak navíc, nedává tam smysl.

Podle toho prvního postu bych tak tipoval, že už ji má nakonfigurovanou, když mu to fungovalo s předchozím ISP bez CG NATu. To že se mu měnila adresa řešil předtím přes DDNS službu (mujnas15.synology.me).
OpenVPN mi tam smysl dává, pokud nechce vystrčit celý Synology NAS přímo do internetu. Připojí se třeba z mobilu, notebooku atp. přes OpenVPN klienta a až pak do NASu.

4
Sítě / Re:Cetin terminátor a port forwarding
« kdy: 11. 09. 2025, 11:18:45 »
Ještě před tím se ale zeptám (a omlouvám se, trochu se v tom ztrácím), jestli v tomto případě není lepší IPv6?

To je trochu složitá otázka, protože záleží na mnoha okolnostech.
IPv6 musíte mít nejdřív bez problémů rozchozenou a funkční v lokální síti, resp. na těch zařízeních, kam se potřebujete připojovat. Zjednodušeně.. aby zařízení v LAN z routeru korektně dostávala přidělené IPv6 adresy z prefixu (rozsahu), co máte od ISP. Také při komunikaci do internetu je potřeba, aby zařízení používala správnou MTU toho PPPoE spojení (1492 bajtů), protože IPv6 nefragmentuje pakety.
Pak už na straně routeru nepoužíváte mapování (NAT), ale pouze přidáte do IPv6 firewallu pravidlo, aby povolilo nová spojení zvenku na tu adresu zařízení, s kterým chcete komunikovat (např. kde běží OpenVPN server).
Většina těch domácích routerů už má nějaký výchozí set pravidel skrtytých v UI, co povolují komunikaci iniciovanou ze všech adres ve vnitřní síti, takže jen přidáváte, co už jsem zmiňoval.
To je stručný obecný popis.
Je tam určitá šance, že většina věcí bude chodit se základním nastavením out-of-box.. Ale ve spoustě ohledech se dá s nejruznějšími zařízení a službami docela narazit a můžete se na jejich nastavení zaseknout (a číst, hledat, zkoušet..). Nemusí to být úplně přímočaré.

Nakonec i když to rozběháte (což bych obecně doporučil, abyste měl funkční IPv6 konektivitu nezávisle na tom přístupu zvenku), tak je tam jedna poměrně rozhodující věc.
Když se budete chtít odněkud připojit na váš VPN server, tak tam samozřejmě musí být také funkční IPv6. Což třeba u mobilních připojení je většinou vcelku v pohodě, nicméně spousty typicky firemních LAN nebo třeba veřejných WiFi sítí a některých poskytovatelů je pořád jen na IPv4.
Možná to není u vás problém a všude, kde se pohybujete je IPv6 dostupné, ale poměrně často je potřeba mít pro službu (VPN) funkční i s IPv4, aby se dalo opravdu připojovat odkudkoliv.

5
Sítě / Re:Cetin terminátor a port forwarding
« kdy: 11. 09. 2025, 08:57:52 »
Není o dost snazší i levnější koupit si na tu VPN za euro a půl měsíčně malý VPS?

Tunel na VPS mi jako snažší rozhodně nepřijde..
VPS musíte nastavit a udržovat, řešit navazování tunelu z NASu nebo routeru, správně všechno vychytat. Zvýší to latenci atp.
Tady zaplatí 99,- a dostane pevnou veřejnou adresu, nastaví mapování na routeru a hotovo. A bude to v budoucnu fungovat s jakoukoliv další aplikací nebo službou, která používá IPv4 komunikaci navázanou zvenku.

Ale tak záleží, co chcete.. z geekovského hlediska (root.cz) je samozřejmě ideální mít jak pevnou veřejnou IP, tak VPS ;)

6
Sítě / Re:Cetin terminátor a port forwarding
« kdy: 11. 09. 2025, 00:04:30 »
Neřekl bych, že bude problém v Terminátoru od Cetinu, ten dělá opravdu bridge a překlad na váš privátní rozsah v LAN nastává až na downstream routeru z jeho PPPoE rozhraní.
Jestli máte nějakou veřejnou adresu a na tom PPPoE je nějaká privátní, tak je tam další překlad u providera (CG NAT). Což je dneska u víceméně všech domácích VDSL připojení standardní věc, pokud si zároveň nepřiplatíte za pevnou IPv4 adresu. Ty jsou cennou komoditou, takže si je šetří a dají vám standardně jen veřejně přístupnou IPv6 a za CG NATem IPv4 (čímž narvou víc zákazníků za jednu veř. adresu, která se mění)
U T-Mobile je ten příplatek pak 99 Kč měsíčně.

7
Hardware / Re:UPS pro malý server
« kdy: 08. 09. 2025, 09:59:00 »
Když jsem to měl možnost vybírat, tak jsem používal jak Eaton i APC. Oboje dvoje v podstatě bez problému včetně aftermarket servisu, výměny baterií atp.. APC Smart jsou obecně vcelku držáky, kde bych se nebál ani starší kus (leckdo to prodává za pár šupů) a vyměnit baterky.

Asi bych se rozhodoval primárně podle odběru a času, co to má překlenout a pak případně i nějakých komunikačních rozhraní (USB, Ethernet, u starších i RS-232), abych mohl při vybití nějak slušně vypnout server nebo jiná zařízení na síti.. Jak APC, tak EATONy, co jsem měl, v pohodě spolupracovaly s NUT službou (opensource, dá se rozběhnout kdekoliv).
U větších odběrů a kapacit (což není úpně tenhle případ) se pak dá třeba ještě zvažovat hlučnost, pokud to je někde normálně v místnosti.. tam to chce třeba mrknout na specifikace a případně projít nějaké diskuse.

Co se týká té výdrže, chce si to případně projít ty battery runtime grafy od výrobce, byť to jsou odhady, většinou to docela sedí.
Eaton to má na jednom místě:
https://www.eaton.com/gb/en-gb/products/backup-power-ups-surge-it-power-distribution/backup-power-ups/ups-runtime-graphs-emea.html

U APC to pak chce dohledat konkrétní USPku na korporátních stránkách Schneider Electric, ve specifikaci pak bývá kalkulačka, kam se zadají watty.

8
Software / Re:Asynchronní replikace SSD na HDD
« kdy: 08. 09. 2025, 02:05:20 »
Cílem bylo zajistit, aby data byla někde k mání v případě odchodu SSD a zároveň to řešení (potenciálně možná s výjimkou nějaké klidové doby) nebylo samo sebou bržděné. Zároveň si skutečně dokážu představit situaci, že mohu přijít o den dat, přičemž historická data netřeba uchovávat. A zároveň - SSD má třeba 4 TB a to už je docela dost dat na to, aby se to jednou za čas zazálohovalo jako celek.
Proto jsem jako výstřel sondoval možnost, kterou jsem uvedl, protože mi připadala principielně elegantní.

Ano, ten základ jsem pochopil včetně toho, že nechcete, aby to bylo permanentně bržděné tím pomalejším diskem (nebo nějakým image souborem) při synchronních zápisech.
Jen prostě pokud to má být ochrana proti selhání toho primárního zařízení, tak by to mělo zaručit, že částečná provedená synchronizace nebude znamenat také nepoužitelnou zálohu.

Kvůli těm snapshotům jsem se ptal, co tam teď máte za filesystém a distribuci. Možná už je to na nějakém domácím serveru, kde máte třeba Proxmox, který má rovnou ZFS modul, takže by to případně nebyl problém rozběhnout tenhle filesystém. A i v ZFS se dá pracovat s image soubory místo disků, pokud byste to chtěl otestovat nebo takhle nastavit cílovém zařízení, kde už je jiný existující filesystém a další data. ZFS snapshoty, send a receive, jsou vcelku přímočaré operace včetně toho inkermentálního posílání.
Viz např. https://docs.oracle.com/cd/E18752_01/html/819-5461/gbchx.html
Jen kdybyste pak používal ty image, tak to má nějaké konsekvence podle toho, jestli byste pak chtěl, aby se to připojovalo automaticky po startu systému (a bude třeba říct systemd nějaké pořadí, aby se nejdřív připojil ten filesystém pod tím), nebo jen pomocí třeba nějakého zálohovacího skriptu.. kdyžtak rozepíšu víc, co nastavit za optiony, když byste importoval pool s image souborem.
U Btrfs je to pak analogické.

Co je tam typově za data jsem zas sondoval i kvůli případnému souborovému zálohování.. např. pokud byste nemohl, nechtěl používat Btrfs ani ZFS.
Souborové zálohování může být bezpečnější volba než ta bloková synchronizace, protože např. klasický rsync nebo rclone (rychlejší porovnávání souborů k přenesní, paralelní operace) pracují ve výchozím nastavení tak, že to do cílového umístění přenesou nejdřív jako dočasný soubor a pak následně atomicky přejmenují.
Což je třeba v pohodě pro drtivou většinu typů užvatelských souborů, co se moc nemění, nějaký sync task na noc nemusí být prakticky problematický (funkčně, časově).
Na stranu druhou právě třeba u image disků virtuálů nebo databází tohle problematické je.. ať už kvůli konzistenci přenášeného souboru nebo neefektivnímu přenášení všech dat (ve virtuálu se změní 100 MB, v cíli se zapisuje celá 100 GB image).
Pokud se tam vyskytují oba typy dat, je samozřjemě lepší to nějak zkombinovat v rámci zálohovacího skritpu (úlohy). Používat standardní synchronizaci, ale vyloučit pár kritických adresářů, na které je pak vhodné aplikovat speciální zálohovací nástroje, co umí pracovat a přenáší jen přírůstky a také pořeší konzistenci.

Ale to už jsem se možná rozkecal o tom, na co jste se neptal (původní idea za mě není dobře realizovatelná) a odpovídal jsem spíš na to jak obecně pořešit zálohu dat z toho SSD..

9
Software / Re:Sdílená grafika s video výstupy pod VM
« kdy: 08. 09. 2025, 00:16:22 »
..
Obdobny postup uvazuju pro Davinci Resolve - grafiky se spoustou VRAM jsou drahe, takze uvazuju nejakou vypocetni nVidii bez vystupu a tyto suplovat prave DisplayLinkem (nebo RDP ... prekvapive to wokenni RDP pres domaci LAN je vyborne pouzitelne, obcas je videt naznak komprese, ale vse pekne plynule).
Na funkci to nema vliv, pokud neco potrebuje vyuzit CUDA/OpenCL, ma tu moznost.

Resolve sám o sobě není tak náročný na paměť GPU.. 8GB je úplně v pohodě i pro UHD projekty a 12GB s rezervou (na spoustě míst mám 5 let staré karty), tedy pokud se budeme bavit o normálních akcelerovaných operacích (dekódování, střih, barevné korekce). To mají dnes běžné karty střední třídy.
Samozřejmě, co tam do budoucna přidají za "AI" moduly netuším, ale podle mě pro normální používání nemá extra smysl řešit speciální serverové karty, co mají hodně paměti.
Navíc pokud je to v jednom počítači, tak se dá normálně vybírat, která karta bude počítat a která bude jen na zobrazení. Takhle jsem měl právě třeba v Linuxu AMD Radeon na zobrazování (protože MESA opensource driver, lepší podpora napříč) a pak NVIDII s proprietárním ovladačem na výpočty.

10
Software / Re:Sdílená grafika s video výstupy pod VM
« kdy: 08. 09. 2025, 00:05:45 »
Fyzicky si to predstav v ramci jednoho pokoje (kancl, lab) - jako konsolidacni ukol. Je tu tichej komp (64C / 256G+ ram) a je vicero pracovist (cca 3-4) s jednim-dvema monitory kazdy, v dosahu do tech 5m od spolecneho kompu. Vetsina pcie slotu je obsazena temi 4xNVMe kartama a nechtel jsem delat kabelove prodluzky na gpu. Pulka nebo vice stanic pojede pod win s CADem ktery ma rad 3D akceleraci (ale nepotrebuje moc jader). Druha pulka nebo vice pojede SW vyvoj ktery obcas oceni vice jader (lokalni build), a headless ci/cd si v nejakem VM taky uzije svuj zivot.

To sdileni cpu/ram resources umozni SW lidem si sednout kde je volno. A rad bych toho sameho dosahnul i s graficky narocnejsim sw jak je CAD - tj. kazde fyzicke misto by melo mit identicke schopnosti, si ukousnout se spolecneho vykonu.

Jako slo by to realizovat skrze video-matici a dedikovane gpu, ale to je takove meh reseni. Diskretni stanice zas neposkytuji efektivitu - energetickou/financni/vykonovou, brat to z druheho konce a rozjizdet distcc se me zrovna nechce jako.

Už chápu, co chceš docílit, ale myslím, že to je velmi obtížné realizoval, protože takhle specifický lokální "pavouk" :) dnes zajímá úplné minimum lidí v porovnání s tím VDI resp. remote desktopy, kde to jde přes síť všechno. Takže tohle podle mě žádným standardním způsobem není rozumně řešitelné.

Byť asi nejblíž, co tomu s Windows kdy bylo, je MS Multipoint server. Ale o tom vím, jen že to existuje a byť jsem viděl kdysi i nějaké prezentace, nikdy jsem s tím reálně nedělal. V té dedikované verzi to umělo opravdu fyzická připojení, pak to šlo i kombinovat přes RDP, jak to bylo pak třeba s OpenGL atp. netuším.
https://en.wikipedia.org/wiki/Windows_MultiPoint_Server

Jinak rozumím, co by to případně mělo za výhody.. ale myslím, že i když něco podobného měl osobně zajistit, tak bych prostě používal server na kompilace, výpočty, CI/CD atp.
A k tomu koupil pár normálních PC stanic.. (karty už máš, menší PC nebo třeba o generaci starší HP Zka se dají občas sehnat za zlomek ceny a pořád se na nich nechá dobře dělat většina věcí), nemusí to nutně žrát až tolik, pokud se na tom nic nepočítá.
Sice si kolegové budou muset rozmyslet, kde budou sedět podle toho, co mají za práci, ale snad to nebudou brát tak úkorně, kdyžtak si vezmou hrnek s kafem a přejedou si na kolečkové židli :)

Protože když bych si měl představit, že tedy nemám vGPU (které je samo o sobě drahé), tak řeším nějaké PCIe expanzní šasi, hovadsky velký zdroj, pak přepínačku/router s USB, co zvládne dvoumonitorové konfigurace s větším rozlišením, tak to taky není úplně zadarmo, zvlášť jestli to má spolehlivě fungovat (např. Lightware).. velmi snadno budu na ceně těch pár PCček i s nějakým provozem. Ty PC pak mají výhodu v tom, že když už se něco podělá, tak to neodejde všechno naráz a bude to i licenčně čisté.
Navíc když solidně nastavím tu vzdálenou práci na serveru (je spousta variant od toho distcc, cos psal, přes různé synchronizace a SSH příkazy, až po věci typově jako VSCode SSH Remote, JetBrains Gateway atp.), tak ti lidi můžou v pohodě v podstatě tím samým způsobem dělat třeba přes VPNku.

Citace
Jak existovali hybridni gpu reseni (a par YT videi i ukazovalo moznosti hrani na vypocetni gpu bez video vystupu), neexistuje co podobneho pro nasazeni s VM ? Jako graficky vystup by byla nativni (v hypervisoru) session s namapovanymi "streamy" z virtualek (ale dostat tam kousek vGPU bude zas licencne drahy)... takze to spis vypada ze to bude chtit protahnout i ten akceleracni stack napul ven z VM.

Pokud se pošle celá karta do VM, může to být klidně něco jako A10, L40 bez výstupu, instaluješ standardní driver (ne ten pro vGPU s licencí), pak když se tam připojíš třeba přes VNC, jede to. Ale to zas neřeší, co chceš.
Jakmile chceš dělit jednu kartu, musíš mít ty licence. A "proxy/dekodér" ve VM na fyzické výstupy mi přjde trochu blbost.

Jinak u AMD to taky není řešitelné, předtím měli obdobnou věc jako vGPU, u které jsi sice nemusel platit za každou session - MxGPU.. ale to je bohužel jen pro staré karty FirePro, jsou tam i nějaké historické ovladače, ale už se to nevyvíjí a bylo to prý peklo uchodit (mám zprostředkovaně jen s VMWare).
Nástupce je MxGPU/GIM a také se používá SR-IOV, ale to je pořád ve vývoji, vyžaduje data-center řadu Instinct MX (začínáme tak na 8-10 tis. dolarech) a má ovladače jen pro Linux guesty (počítám, že primární use-case je spíš oddělené počítání přes GPU ve VM).
U Intelu je pak obodba u data-center řady Flex a tam ani nevím, jestli to má Windows driver pro guesty. Nic podobného pro desktop ARC pak není.
Intel GVT-g umožňoval 3D akceleraci v guestu pomocí integrované grafiky, ale bylo to peklo rozchodit, šlo to jen s Linuxem (Windows virtio-gpu-3d jsem nikdy nerozběhl) a bylo to líné jak vandrácká hůl.

Takže suma sumárum, NVIDIA má aktuálně jedinou možnost pro použití grafiky s více Windows guesty.

11
Software / Re:Sdílená grafika s video výstupy pod VM
« kdy: 06. 09. 2025, 01:51:22 »
Ahoj. Co si pamatuju, tak tohle nikdy nefungovalo ani v jedné variantě toho virtualizačního mechanismu.
Jinými slovy, i když má karta fyzické výstupy (Quadro, RTX..), tak se po přepnutí do vGPU/GRID režimu vypnou.
A to jak u starších generací, co mají ty mdevy (virtuální grafiky přiřazené do virtuálů) emulované softwarově z jednoho PCIe zařízení, tak u novějších od Ampere (to máš ty) a dál, kde už je ta izolace po přepnutí řešená hardwarově přes SR-IOV a VF, jako třeba u síťovek.
Ani si vlastně nejsem jistý, jestli s fyzickým výstupem počítá NVIDIA GRID ovladač na virt. grafiku, který pak instaluješ do virtuálu. Pokud uděláš "obyčejné" PCI pass-thru celé karty, používáš normální ovladač bez licence a máš samozřejmě všechny výstupy. Jakmile je to v tom virtualizačním režimu, používá se na ty emulované karty ovladač jiný, který pak místo výstupu zachytává framebuffer, kóduje ho třeba přes NVENC a pouští přes daného VDI klienta (Jako např. Horizon u VMWare nebo speciální build KVM/QEMU s DCV VNC serverem, nechodí to se standardním Spice)
Ale také si po každém spuštění daného virtuálu průběžně kontroluje licenci on-line. A ta není úplně levná - řekněme 250 dolarů ročně za rok, pokud chceš virtuální RTX - workstation třídu, tzn. třeba zaplatíš 2500 za deset souběžně spuštěných virtuálů (resp. vzdálených sezení VDI).

Nicméně stejně mi to tvé přání (víc virtuálů s fyzickými výstupy) přijde trochu zvláštní, resp. dost nezvyklý use-case. Netuším, na co by to prakticky sloužilo, ani jsem nikdy nic takového neslyšel.. Buď mám fyzický stroj s lokálním grafikou a monitorem, nebo se ze vzdáleného klienta připojuju na server (veřejný cloud s nějakou škálovatelností a dostupností, firemní server třeba pro home office s nějakými CADy atp.). Ty fyzické výstupy z jedné bedny (extendery ke klientům?) a zároveň virtualizace s nějakým síťovým ovládáním mi přijde trochu jako kočkopes. Možná i proto se tím nikdo moc nezabývá.

12
Software / Re:Asynchronní replikace SSD na HDD
« kdy: 05. 09. 2025, 13:06:47 »
Chápu a občas taky takhle někdy spíš "sonduju".
Nezklamal jste :) Můj koment byl primárně o tom, že v tuhle chvíli už víceméně nemá smysl moc spekulovat dál (coby, kdyby a jestli něco jde, nebo ne). Možná by mě třeba napadly nějaké další věci nebo zkušenosti ohledně konkrétního použití, ale jsou tam proměnné, co si nedovedu dosadit.

13
Software / Re:Asynchronní replikace SSD na HDD
« kdy: 05. 09. 2025, 10:35:43 »
ano,  ale nekdy proste neni jina moznost (ale souhlasim u tohodle musis presne vedet co delas)

No stejně mi tohle řešení přijde trochu riskantní divočina :) Ale možná to opravdu nějaký reálný use-case má.

Třeba to tu ještě někdy WIFT okomentuje, když už to téma vykopl.
Nevíme jaké filesystémy tam teď používá nebo může používat.
Nevíme jak dlouhé zpoždění repliky/mirroru za primárním diskem si může dovolit.
Nevíme co tam má typově za data a jestli je potřeba zachovat kontinuální běh aplikací nad tím, případně minimalizovat dobu, kdy se můžou zmrazit zápisy. Např. pokud tam jsou databáze nebo image od běžících virtuálů je to úplně jiná situace než hromada statických dat a je potřeba to dobře promyslet, aby ty zálohy resp. repliky k něčemu byly.

14
Software / Re:Asynchronní replikace SSD na HDD
« kdy: 04. 09. 2025, 21:29:24 »
- mdadm --add + --remove  (s bitmapama)

Asi spíš: --fail, pak --remove a nakonec --re-add (jinak to ingnoruje tu existující bitmapu).

Podle mě tohle fakt není dobrý nápad, speciálně pro pravidelné používání (třeba jednou za den).
Přesně v duchu toho, co jsem zmiňoval. Když se neplánovaně zastaví synchronizace bloků, např. při vyšším vytížení se může odporoučet zdrojové zařízení, tak to skončí nakopnutou zálohou. Část filesystému z přechozího dne, část z času aktuální synchronizace.
Navíc pokud to má nějak rozumně doběhnout s jistotou, že tam nebude nic chybět, tak by se muselo před failováním a odpojením zajistit, že je to kompletně sychronní a na filesystému nebudou žádné zápisy (třeba přes fsfreeze).
Ty přenosy snapshotů s  Btrfs nebo ZFS jsou mnohlem lepší řešení. Uklízení těch starších na cílové straně se udělá až po úspěšném přenesení aktuálního. Takže i pokud bude nějaký problém při přenosu, jsou tam vždy kompletní starší snapshoty.

15
Software / Re:Asynchronní replikace SSD na HDD
« kdy: 02. 09. 2025, 22:15:00 »
Já v podstatě souhlasím s tím, co napsal RDa.
Asynchronní bloková replikace je principiálně problematická, protože při jakémkoliv selhání a nedokončené synchronizaci to typicky nechá tu repliku v nekonzistentním stavu (data vs metadata na fs).
Na druhou stranu pokud budu mít mirroring v RAIDu nebo synchronní replikaci, tak budou nutně všechny zápisy čekat, až se to zapíše do všech zařízení/replik. Což třeba náhodné zápisy do SSD, které pak bude čekat na klasický točivý disk, opravdu násobně zpomalí.

Takže pro valnou většinu použití mi přijde, že se s tím buď musí člověk v dané situaci smířit (a použít např. už zmíněné write-mostly), nebo to řešit klasicky pomocí zálohování, resp. replikace snapshotů v nějakém vyhovujícím intervalu.
Většinou je při nějakém fatálním selhání lepší mít funkční starší snaphot než nekonzistentní repliku.

Byť to jde do jisté míry dělat s většinou linuxových filesystémů na úrovni device mapperu (třeba s thin snapshoty), tak zdaleka nejefektivnější a nejpohodnlnější je to s CoW filesystémy jako Btrfs nebo ZFS.
Tím, že jsou snapshoty přímo jejich součástí a jsou atomické (z pohledu fs, ne aplikací), není např. potřeba používat fsfreeze. Další výhoda je, že pokud je cílový fs stejný (např. také Btrfs), přenáší se při operacích send a receive jen rozdíly a je to velice rychlé. Navíc tam jde snadno udělat nějaká retence, což vám pomuže když dojde k nějakém smazání nebo logické chybě.
Pokud byste potřeboval skutečně jen tu image na nějakém jiném fs, tak se to dá zařídit také. Např. uděláte sparse file (fallocate) s nějakou maximální délkou. Vytvoříte na něm Btrfs a pak s ním budete pracovat přes loop zařízení standardním způsobem. Bude to samozřejmě o něco pomalejší než u zařízení napřímo, ale to by pro tenhle typ záloh nemuselo nutně vadit.
Jinak tu jsou samozřejmě i nevýhody, RAID s redundancí vám zajistí dostupnost v případě závady, byť vás to v tomhle hybridním režimu bude stát výkon při běžném provozu. Záloha tohle nezajistí a i když případně vyměníte odešlé zařízení, budete tam muset ručně vytvořit nový filesystém a přes receive ze snapshotu v záloze přenést zpátky data, donastavit subvolumy, bootování, pokud pokud jde o systémový disk atp.

Stran: [1] 2 3 ... 32