Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - František Ryšánek

Stran: [1] 2 3 ... 111
1
Software / Re:Nekorektní chování BTRFS
« kdy: 02. 11. 2025, 18:02:23 »
žádný raid ti nepojede při obsazenosti 99.29% proboha

RAID pod blokovou vrstvou pojede, ten nejspíš obsazenost FS vůbec neřeší (ačkoli by mohl, pokud by dostával trim/discard).

Ale souborový systém obsazený na 99% je prakticky mrtvola, a to jakýkoli. Bejvalo pravidlo, řešit docházející místo při obsazení cca 75%, nejpozději 80%. Jinak hrozí patologická fragmentace FS a divné efekty. Taky se říká, měnit olej v autě nejlíp po 10-12 000 km, pokud ne častěji, žejo :-)

Pokud na ten disk ukládám malý počet velikých souborů, a ty soubory jednou zapíšu a pak už jenom čtu (a nejlíp je tam spíš kompostuju, než že bych je mazal), tak se bojím vyššího zaplnění o něco méně, protože metadat není tolik a fragmentace moc nemá jak nastat... přesto když se omylem dostanu přes 90%, tak se stydím :-)

2
Sítě / Re:DMZ na Proxmoxe : Síť-Vytvořit- nový bridge
« kdy: 02. 11. 2025, 00:05:41 »
Já bych to udělat tak, že bych dal Vytvořit - Linux bridge a do portů mostu nedal nic,...
Sice jsem moc nedával pozor, k čemu to, ale vyrobit na hostiteli soft-bridge, který zpočátku nebude mít žádné member porty, lze takto:

Kód: [Vybrat]
auto mojebr0
iface mojebr0 inet manual
    bridge-ports none
    ...atd...

Hodí se to obecně k vytváření čistě virtuálních segmentů sítě, izolovaných od fyzických ethernetů hostitelského stroje - do takového virtuálního L2 segmentu se později podle okamžité potřeby a situace mohou probouzet VM guesti, až na ně přijde řada v kaskádě závislých startů, nebo když správce nějakou virtuálku spustí dle svého okamžitého rozmaru.

3
Sítě / Re:DMZ na Proxmoxe
« kdy: 30. 10. 2025, 00:33:13 »
@panpanika v klidu, nejsme ve škole a já nejsem učitel ani šéf :-)
Já jsem jenom zkombinoval historické znalosti jak se to konfiguruje holýma rukama v živém systému: ifconfig, ip, brctl, bridge, vconfig...   s jakousi znalostí debianího tradičního konfiguráku /etc/network/interfaces. Který má docela obstojnou dokumentaci, a poměrně dost navazujících examplů se válí různě po internetu - např. na serverech ze skupiny StackExchange (vč. Ask Ubuntu).
Dokumentace Proxmoxu ohledně toho vlan-aware bridge mi přišla poměrně kusá, ale když jsem to poskládal s examply z Debianu, tak mi vyšlo něco, co mi dává smysl. A v Proxmoxu mi to funguje. A rozhodně netvrdím, že je to jediná správná možnost.

4
Bazar / Re:Koupím hardware vhodný na domácí server
« kdy: 29. 10. 2025, 18:20:17 »
@Martin Poljak ano je pravda, že moje měřítka jsou nastavená na zátěžový stresstest :-) kterým tady zahořujeme. Historicky CPUburn, aktuálně tuším prime95, takový memtest86 taky nějakou zátěž představuje apod. (Zatěžovat k tomu ještě grafiku se obvykle nenamáhám.)

5
Bazar / Re:Koupím hardware vhodný na domácí server
« kdy: 29. 10. 2025, 16:53:02 »
...Tam je často problém naopak spíš ten, že dnešní levné příliš inteligentní pseudozelené UPS takový příkon považují za natolik malý, že se prostě vypnou; zrovna nedávno jsem to řešil a měl u toho chuť fackovat.
Mě v několika ohledech zábavně překvapila Eaton 9E 1000i rack. Například:

- když jí dáte přes čelní panel pokyn "suspend", tak ho chvíli jako ignoruje, a asi po 20 sekundách prohlásí "no tak já se teda vypnu no". Než jsem na to náhodou přišel, začínal jsem si pomalu rvát zbytky vlasů, že ten krám snad nejde vypnout, a budu ho muset nechat vybít do mrtě, když ho chci jenom záměrně odstavit :-D

- má ventilátor s tacho-sondou, asi pětiwattový 80x80x25 a pěkně uřvaný :-( a otáčky mu nereguluje, přestože fouká prakticky neustále jenom studenej vzduch. Uvnitř je ventilátor navázaný na silové polovodiče plastovým airshroudem a krásným hliníkovým "chladícím tunelem" se žebry uvnitř...

Citace
Každý ten watt spotřeby taky znamená watt vyzářeného tepla, které musíte někam odvést. Každý větrák taky něco žere, navíc pokud to chcete mít třeba někde ve špíži, už tam může být nepříjemně teplo.

Cokoliv do cca 40 W celkem bez problémů v pokojové teplotě uchladíte dostatečně dimenzovaným chladičem pasivně pokud to zrovna nemáte zavřené v hermeticky utěsněné skříni. Ano, ve spíži, kde je padesát stupňů jsem to nikdy neřešil; nemám takovou a i na půdě je v parném létě tak čtyřicet.

Souhlas, spíž ve které něco topí, to je dobrá vychytávka :-)
Jinak ale když si člověk přitápí kompem někde v obytné místnosti, tak aspoň o to teplo se přivře termostat topení, takže v topné sezóně to není *úplně* pánubohu do oken...

Jinak se odvážím zmínit svá subjektivní měřítka, co je ještě zdravé v oblasti pasivního chlazení (a ano jsem ve při s mnoha lidmi, včetně kolegy naproti přes stůl): mám nejradši, když na chladiči udržím ruku a nepopálím se (což nejde aplikovat v napájecích zdrojích a UPSkách) a když to za provozu "nesmrdí teplem". Z mých zkušeností vychází, že ITX board resp. jeho CPU uchladit pasivně jde důstojně tak do 10 W spotřeby, a to s už poměrně velkým chladičem - asi jako dlaň a 30 mm vysoký, něco takového má zřejmě Odroid H4 ultra. - pokud ho necháte volně na vzduchu, nebo snad i v necudně děrované skříni. 40W už je poměrně dost na pasivní chlazení. Leda by pasivní chladič byl velký jako krabice od bot (i tak vysoká žebra) a byl umístěn svisle ve volném prostoru. Kromě toho jste si ochladil CPU, ale nepořešil jste RAM, VRM a případně další součástky okolo. Různé součástky mají různou závislost životnosti na teplotě, ale docela se mi líbí poučka ohledně elytů, že každých 10 stupňů znamená dvojnásobek resp. polovinu životnosti. Každá nevětraná krabice kolem zhoršuje prostup/přestup tepla do okolí. Vůči zcela pasivnímu chlazení jsem proto ostražitý.

Zaujalo mne 213.7V v zásuvce. Stále v mezích ale nic moc.

Vím o nové výstavbě (satelit), kde je v zimě už kolik sezón když tam každému jede elektrické podlahové topení napětí mnoho hodin denně cca 180 až 190 V. Pravidelně to reklamují, EG.D přijede, proměří to na trafu, prohlásí, že je vše v normě a zase odjede. A nedělá s tím samozřejmě nic. Někde je to prostě těžký.

Tzn. nezabírá ani opakovaná pruda. Hm. To pak už leda postavit nějaké kontinuální měření se záznamem, vynést do grafu a tímto se ohánět. Mám zkušenost s různými dodavateli energií, že jakmile člověk drží v ruce graf = časovou řadu = nějaké měření, reakce je citelně vstřícnější, a člověk ani nemusí přejít do vzteklé tóniny... Na tomto fóru je spousta hračičků - podle mého stačí ten sínus nějak převést na nižší napětí, něčím nasnímat (v zásadě se jedná o audio), s dnešním výpočetním výkonem není problém si spočítat true RMS / maxima / podíl harmonických, vynést už agregovaná data do CSV třeba jednou za sekundu, a následně s grafickým výstupem pomůže třeba binjr (nebo samozřejmě gnuplot)... na to stačí pomalu holá malina.

6
Sítě / Re:DMZ na Proxmoxe
« kdy: 29. 10. 2025, 16:12:37 »
na trunk interface mam
Kód: [Vybrat]
auto sfpplus
iface sfpplus inet manual
        bridge-ports ens1f0np0 ens1f1np1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2 5 10 20 30 40 50 60 70 80 90 100 110 120

a na jednotlivejch hostech do sitovky si napises jaky vlan ID chces a proxmox zaridi zbytek sam. tzn bridge primo pro vlany nevyrabis, pokud tam nepotrebujes mit management if.
Kód: [Vybrat]
net0: virtio=BC:24:11:EC:D6:99,bridge=sfpplus,firewall=1,tag=10

Souhlas, jenom dávat bridgi jméno "sfpplus" mi přijde potenciálně poněkud matoucí :-)
Defaultní vmbr0 mi přijde přehlednější.
Jinak ale logika té konfigurace je myslím v pořádku.

pokud bys tam chtel mit mgmt if udelas neco takovyho
Kód: [Vybrat]
auto vlan2
iface vlan2 inet static
        address 10.1.2.4/24
        gateway 10.1.2.1
        bridge-ports sfpplus.2
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2

Opět to pojmenování... interface jménem "vlan2", ale typu bridge... jasně, je to věc subjektivního vkusu.
Navíc vlan-aware (= bridguje včetně tagů) ale nakonec omezený na tag2...
Vytvořil jste druhý bridge, do kterého přiřazujete VLAN subinterface z prvního bridge... err...
dejte mi někdo pohlavek, jestli nevím o nějaké skryté samočinné eleganci :-)

Sečteno podtrženo, co třeba takto?
V tom prvním iface bloku si jenom přejmenuju defaultní bridge na defaultní jméno, čistě pro svoje egoistické uspokojení:

Kód: [Vybrat]
auto vmbr0
iface vmbr0 inet manual
        bridge-ports ens1f0np0 ens1f1np1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes        # toto v defaultu tuším není, správně jste to přidal
        bridge-vids 2 5 10 20 30 40 50 60 70 80 90 100 110 120

auto vmbr0.2
iface vmbr0.2 inet static
        address 10.1.2.4/24
        gateway 10.1.2.1

...vytvoří ten VLANový subinterface s VID=2 pro hostitele automaticky nad defaultním vmbr0.
A pokud byste potřeboval, aby do mngt VLANy viděli taky někteří guesti, tak přiřadit tag v Proxmox GUI jak správně píšete... není potřeba tam pečovat o další bridge, všechno to zvládne bridgovat ten jeden defaultní VLAN-aware.

Mimochodem ty dva tagované fyzické porty... nezasloužily by si spíš LACP bond? (záleží, jaký je jejich smysl v navazující topologii)

7
Bazar / Re:Koupím hardware vhodný na domácí server
« kdy: 28. 10. 2025, 18:37:33 »
Je možné, aby tohle mělo 2-3W v IDLE? Tipuji, že tak jedna RAMka bude mít 2-3W.
Těžko říct, taková spotřeba by byla fakt krutopřísná :-) za celý stroj s plnotučným procesorem.
Zajímalo by mě, čím to měřil. Ten screenshot displeje měřáku vypadá jako nějaká čínská hračka. Na klešťový ampermetr bych to spíš netipoval (klešťáky měří DC ve stovkách mA podle plotu).

8
Bazar / Re:Koupím hardware vhodný na domácí server
« kdy: 28. 10. 2025, 13:40:04 »
Ohledně šasi, zkuste mrknout, jestli by se nehodilo něco z toho:
https://www.emko.cz/produkty/it-skrine/mini-itx
https://www.inter-tech.de/ITX_Case.html
https://www.chieftec.eu/products/de/Chassis/9/ITX

Pro Odroid H4/+/Ultra se prodává ITX kit a taky nějaké originální skříňky - které ale Vašemu zadání spíš neodpovídají.

Chlazení N305 a asi ani slabších N97 bych nenechal úplně na tom pasivu, co je na Odroidu - přidal bych tam nějaký tichý pomalý ventilátor o přiměřeném průměru (80 nebo 120 mm). Vidím na odroid motherboardu header pro čtyřpinový CPU fan (PWM ovládání otáček) - už jsem tady zmiňoval Arctic P8/P12 PWM PST series. Prostě aby se trochu hejbal vzduch. Ostatně disky to taky potřebujou.

Nevím kolik máte prostoru na ten počítač - třeba bych se úplně nestyděl, použít nějaké šasi typu miditower nebo slim desktop a nacpat do něj basu šuplíků nebo dvě pro ty disky. Stejně budete chtít pro větší počet disků nějaký napájecí zdroj 12+5V. Basy šuplíků do 5,25" pozic dělá Chieftec, Inter-tech, Supermicro, něco by mohl mít Digitus a další... Nebo kastli nějakou úplnou holotu z Alíku / Allegra :-) nakonec člověk má v lékárničce dezinfekci a náplast...

9
Bazar / Re:Koupím hardware vhodný na domácí server
« kdy: 28. 10. 2025, 10:44:43 »
Člověk si řekne, že On-Die-ECC je takové "Must-have" pro DDR5, ale....pak najdeš moduly, které nemají ani to pitomé On-Die-ECC :-D

Nedávno jsem potřeboval SODIMM DDR5 paměti alespoň s On-Die-ECC a nějakou dobu jsem to přebíral, nehledě na to, že se přítomnost těžko On-Die-ECC ověřuje...
Citace
dmesg | grep -i EDAC
se na tom systému tvářilo, že o ničem neví...

Ideální je samozřejmě použít DDR5 SODIMM moduly se skutečným ECC a systém, který to ECC umí....a to je těžší sehnat...

Nejprve rekapitulace:
ECC se dneska evidentně používá na více "vrstvách" či pozicích v RAM subsystému (vynechme tentokrát diskový subsystém):

1) klasické ECC RAM.
Non-ECC DIMM/SODIMM má bajt široký 8 bitů, a žádná data navíc neukládá.
Paritní a později ECC modul přidává devátý bit na každý bajt, ze kterého řadič RAM dokáže poznat chybu (prostá parita), případně řadič RAM dokáže chybu opravit (potřebuje víc bitů redundance = řádek RAM je ve skutečnosti delší než 1 bajt).
Klasickou ECC RAM poznáte nejsnáze tak, že DIMM/SODIMM modul má počet velkých švábů dělitelný nikoli osmi, ale devíti. Protože na každých osm čipů je tam jeden paritní navíc.
Přesněji řečeno, v případě DDR5 jsou navíc dva: dva bity na bajt, dva čipy na sadu osmi užitečných. Tzn. počet čipů je dělitelný nikoli osmi, nikoli devíti, ale deseti.
Pinout ECC a non-ECC pamětí je v zásadě shodný, pouze non-ECC paměť nevyužívá "dodatečné paritní" signály.
Bavíme se zde každopádně o komunikační cestě mezi řadičem RAM a DIMM/SODIMM modulem, o počtu datových bitů na každý "vnější řádek" či přenosový takt této paměťové sběrnice na motherboardu.

2) InBand ECC je nějaké schéma, jak nad non-ECC RAMkou (počet čipů a vodičů) provozovat ECC v režii řadiče RAM. Tzn. modul teoreticky můžete použít jaký chcete.

3) on-die ECC = něco co se děje uvnitř DRAM čipu.
Slýchám tyhle zvěsti už delší dobu, nejpozději od DDR4, že interní organizace čipu je ve skutečnosti složitější, že jsou tam každopádně v křemíku nějaké ECC bity navíc, což "cílový řadič" uvnitř RAM čipu navenek cudně skrývá. Vnější organizace je stále hezky binární a pravoúhlá, přístupová doba se nemění, ale realita dovnitř směrem k fyzickému křemíku je dnes už složitější. Protože bez low-level ECC by to při dnešní hustotě litografie prostě už nešlo.
O tomhle řadič RAM v north bridgi (dnes on-die v CPU) nemá tušení a nezajímá ho to. Proto mě nepřekvapuje, že se o tom člověk běžně nedočte v datasheetech zejména modulů, ale možná i čipů, "protože to dělá každej, a navenek se tím moc nechlubí".

Tzn. "to pravé oříškové" je stále ECC se širší paměťovou cestou (devíti až desetibitovou) mezi (SO)DIMM modulem a "procesorem" (jeho řadičem RAM). V počítačových platformách spíše konzumních, a spíše levných, o kterých se tu bavíme, se ECC moc nenosí. Procesory to běžně neumí, takže ani není příliš poptávka po RAM modulech takto vybavených. Proto je taky člověk zas tak často nevidí na každém rohu u zeleného plyšáka apod.

Moduly ECC unbuffered jsou tradičně často k vidění v "industrial/embedded" nasazení - třeba v dražších routerech nebo hardwarových RAID řadičích (těch které mají paměť ve slotu). Cisco a konkurence, LSI (MegaRAID), Adaptec, Areca, Accusys, Infortrend a další. Potažmo paměťové moduly s ECC jako doplňky prodává přednostně výrobce těchto hraček svým zákazníkům. Procesory jsou převážně ne-x86, tzn. s architekturou ARM, PowerPC, snad i MIPS (historicky i960).
 
Pokud se týče x86 procesorů a konkrétně rodiny ATOM, tradičně jsou podporou ECC vybaveny některé modely procesorů Intel, určené pro industrial/embedded trh. Jedná se z každé generace ATOMů o některé "produktové varianty" - viz produktový web ark.intel.com, nebo jak se to dneska jmenuje. Následně se podpora ECC vyskytuje na motherboardech takto vybavených. Část z nich je ve formátu Mini-ITX, případně firemních proprietárních (ale stále je to v zásadě PC s BIOSem pro všeobecné použití). Nebavme se tu o situacích, kdy si dostatečně velká firma navrhne motherboard pro své interní použití a deska nemá ani otevřený BIOS.

Moduly s ECC se prodávají převážně "od výrobce modulů přímo výrobci užívajícího hardwaru". Viděl jsem je například u výrobce Unigen, který je v tomto segmentu zřejmě hojně zastoupen - s minimálkou ve stovkách kusů.

Disclaimer o střetu zájmů: níže zmíněná značka Innodisk mě částečně živí - omluva za reklamu.

Pro trh "drobných průmyslových zákazníků a malých integrátorů" existují na Taiwanu výrobci, kteří drží dlouhou produktovou životnost, u populárních položek i skromnou skladovou zásobu hotové produkce, k ostatnímu mají plošáky, součástky a osazují i malé počty kusů. Prakticky se dají koupit jednotlivé kusy s dodací lhůtou buď obratem, nebo řekněme 2-3 týdny EXW. Bývá k dispozici jak "konzumní" tak průmyslový rozsah teplot.
Pokud se bavíme o modulech DDR5 ECC SODIMM, na aktuálním webu výrobce Innodisk (opět ho předělali, ach jo) bych zmínil následující dva odkazy:
https://www.innodisk.com/en/products/dram-modules/ddr5/ddr5-ecc-sodimm
https://www.innodisk.com/en/products/dram-modules/ddr5/ddr5-wide-temp-ecc-sodimm

10
Software / Re:Bootování iPXE s aktivním Secure Bootem
« kdy: 27. 10. 2025, 23:34:06 »
Aby si kernel vzal IP adresu přes DHCP (což potřebuje k nahození NFS), k tomu slouží cmdline argument
Kód: [Vybrat]
ip=dhcpA ještě bych zmínil proměnnou BOOTIF, kterou bootloader předá kernelu na jeho příkazovém řádku - obsahuje MAC adresu síťovky, ze které nastartoval síťový bootloader. Pxelinux to dělával tuším automaticky, iPXE je potřeba maličko pomoct (i tohle patří mezi imgargs):
Kód: [Vybrat]
BOOTIF=01-${mac:hexhyp}

11
Bazar / Re:Koupím hardware vhodný na domácí server
« kdy: 27. 10. 2025, 22:21:20 »
A měl bych možná nepatrnou obavu, jak to pojede na ARMu, pokud neproběhne inicializace čipu BIOSovou option ROMkou. Nemám zkušenost.

Option ROM potrebujes na to, abys z toho mohl bootovat (na x86) a vetsinou je to potreba jen na Legacy boot - protoze UEFI bios ma o dost schopnejsi driver model a jeho vestaveny AHCI driver dokaze inicializovat i ty externi addon adaptery podle PCI CLASS (namisto VID/PID).

Na ARMu v dobe IMX6 jsme zkouseli nejakou random asmediu a fungovalo to.. s kernel driverama. Jak ta karta ma jen MMIO a zadne IO porty (specialita x86 a deprecated v PCIe), tak neni duvod proc by to na ARMu nechodilo - jsou-li k tomu ovladace.. a zde znova, linux driver je AHCI, neni to specificky na brand radice.. non-AHCI SATA radice se delali v dobe SATA-I, kdy to vyrobce bastlili nad svym PATA kremikem :)

Tak jasně že "option ROM" je hlavně modul kvůli bootu v rámci x86 BIOSu (popř. UEFI).
Ale zažil jsem historicky při různých divných příležitostech hardware různého druhu, který když option ROM z nějakého důvodu během POSTu neproběhla, tak potom inicializace ovladačem v OS nedosáhla zprovoznění dotyčného hardwaru.

Mimochodem na ten AHCI driver v Linuxu jsem svého času koukal, a on má poměrně dost všelijakých HW-specifických quirk cases - které se aktivují v závislosti na PCI ID's :-) Zdrojáky čerstvého Linuxu (kernelu) jsou natolik aktuální, že většinou "generický" driver zná i poměrně nový křemík. A ano, asi nakonec zafunguje i genericky podle PCI device class, pokud podle PCI IDček daný čip nezná konkrétněji. Přesto... osobně věřím víc třeba class-based ovladačům NVMHCI (v linuxu a taky v UEFI "BIOSu") protože v případě NVME není AHCI řadič ani náhodou v čipsetu, ale vždycky na výměnném SSD :-)

12
Bazar / Re:Koupím hardware vhodný na domácí server
« kdy: 27. 10. 2025, 11:41:01 »
Skoda, ze ten orange pi 6 plus nema sata porty, len nvme a aj to len 2

Vidím na Alíku 5-6portové SATA řadiče do NVM-e (=PCI-e) slotu M.2 M-key - viz např. Bohužel URL na Alíku mají jepičí trvanlivost... Jenom dodám, že tam jsou tři různé varianty té karty, s dvěma různými řadiči (JMicron a Asmedia) a s různými počty portů. A měl bych možná nepatrnou obavu, jak to pojede na ARMu, pokud neproběhne inicializace čipu BIOSovou option ROMkou. Nemám zkušenost.

13
Server / Re:Rozdělení disků pro Proxmox v domácím labu
« kdy: 27. 10. 2025, 11:23:19 »
Jen jsem narazil na jeden nečekaný problém, když jsem ke stávajícím dvou diskům v raid1 přidával další dva disky do samostatného raid1, první raid se mě smazal a musel jsem ho vytvořit znovu. Dělal jsem něco špatně nebo je to normální?
Controler je dell perc h330

h330... podle fotek nějaká zero-channel koloběžka. Brácha H330+ je karta do PCI-e se SAS konektory. Podle datasheetu od Dellu se toho údajně účastní LSI3008, což je v podstatě HBA, někdy dodávaný s jakousi podporou RAIDů bez chroupané parity (tzn. 0/1/10). Tzn. odhadem pokud je tam nějaký RAIDový management, čekal bych ho z rodiny MegaRAID. Zajímavý quirk s tím zmizelým RAIDem. Hmm nič mi to nehovorí.

Jo kdyby to byl Adaptec, tak mám zkušenost s pár staršími generacemi AACRAIDu, že za určitých okolností se dal omylem zrušit mirror (nebo možná i jiný RAID) :-)
- vytvořte RAID (např. mirror)
- seberte za jízdy jeden disk, jako že selhal
- vložte náhradní disk a RAID opravte
- počítač vypněte, opravený produkční mirror na chvíli vymontujte
- vražte do počítače ten disk co jste prve vytrhli - je na něm půlka mirroru
- tu trosku mirroru zrušte, skrz management RAIDu
- "smazaný" disk uložte do šuplíku jako náhradní do budoucna
- vraťte do počítače zastudena zpátky ten zdravý opravený produkční RAID (mirror) a život jde dál
- ... po několika letech spokojeného ostrého provozu ...
- jednoho dne umře disk v tom produkčním ostrém mirroru.
- vyndáte vadný disk, šáhnete do šuplíku pro "smazaný" prázdný záložní disk, vrazíte ho do RAIDu
- ejhle, RAIDový řadič zruší pole s ostrými daty na přeživším disku !

Proč? Protože si firmware RAIDu na "prve smazaném" náhradním disku cinknul, že jste odstranili mirror, a zřejmě podle verze nebo časového razítka operace je toto poslední zásah, který jste provedl, proto tento krok aplikuje i na tu půlku mirroru, co Vám pár let spokojeně běžela...

14
Bazar / Re:Koupím hardware vhodný na domácí server
« kdy: 27. 10. 2025, 01:25:11 »
Jinak pokud bych chtěl ještě víc šetřit na spotřebě, hledal bych vhodný ATOM - třeba pro nějaký linuxový NAS vypadá dobře C3758D4I-4L . Bohužel ten procesor už není nejmladší. V dnešní době bych koukal spíš po nějakém Alder Lake N, patrně i3-N305 (osmijádro, bohužel bez podpory ECC RAM, 48 GB max). Vidím s tím třeba nějaký maličký Odroid... Tyhle maličké procíky umí VT-d (PCI-e IOV) a nějaký výkon nakonec taky mají.

No neviem, ten I3-N305 by mal podporovat len 16 GB RAM max https://www.intel.com/content/www/us/en/products/sku/231805/intel-core-i3n305-processor-6m-cache-up-to-3-80-ghz/specifications.html

Intel tradičně udává u ATOMů jenom 16 GB RAM max, aby to nekanibalizovalo přesně tenhle trh výkonnějším řadám procesorů (dražším a žravějším). Osobně jsem si už na nějakém Gemini Lake vyzkoušel 32 GB. V internetech jsem potkal referenci, že i3-N305 funguje s 32 GB, a Odroid ohledně té své desky říká na rovinu, že podporuje 48 GB. Moduly o této divné kapacitě se na DDR5 skutečně prodávají.

15
Bazar / Re:Koupím hardware vhodný na domácí server
« kdy: 26. 10. 2025, 14:39:59 »
V dnešní době bych koukal spíš po nějakém Alder Lake N, patrně i3-N305 (osmijádro, bohužel bez podpory ECC RAM, 48 GB max). Vidím s tím třeba nějaký maličký Odroid... Tyhle maličké procíky umí VT-d (PCI-e IOV) a nějaký výkon nakonec taky mají.

Proč se, zatraceně, s těmihle CPU běžně nedělají normální ATX/ITX desky? (AliExpress a spol. nepočítám.) Vůbec to nedává smysl. Vždyť i toho výkonu mají jak běžný kancelářský počítač.

Asi nás není mnoho, kdo dáváme pozor a máme takovýhle vkus.
To, anebo jede celé odvětví podle toho, jak Intelův marketing káže produktovou segmentaci.

Třeba ITX desky se dvěma síťovkami a "mobilním" procesorem se taky prakticky přestaly dělat pro "kancelářský" segment, a přestěhovaly se do industrial/embedded segmentu, kde jsou prodávány citelně dráž (ale taky s delším produktovým životním cyklem). Viz značky jako AsRock Industrial, GigaIPC, Avalue, Advantech... hehe řada značek kancelářských a gamesních boardů si založila "industrial" divize. A v tom případě zase všude vidím moře modelů s N97 (úspornější člen Alder Lake N), nejvýkonnější osmijádro N305 je zřejmě marketingem tlačeno spíš pro "slim desktop" :-( Našel jsem u Advantechu AIMB-219NC3F...

Stran: [1] 2 3 ... 111