Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - Exceptions

Stran: [1] 2 3 ... 65
1
Diskove pole so zelenymi ramcekmi je ktory stroj?

to bude ten Dell PowerEdge R730, podle vzhledu.

Nikoliv, Dell PowerEdge R730 je právě přímo pod tím strojem se zelenými rámečky (:

Ale co to je z toho obrázku nejde poznat.

hádat se nebudu, také jen tipuji. R730 podle seznamu v první příspěvku tam jsou 2x, ty patky u toho zeleného jsou jasné dellovské patky, ty zelené rámečky neznám, ale třeba jsem se s nimi jen nesetkal.

I vylučovací metodou mi to tak vychází, dole nad UPS jsou tři 2U cisca, ak jsou tři 1U prolianty, pak právě ty dvě R730 a nad nimi jeden R630. T42S QUANTA tam nikde nevidím.

2
Diskove pole so zelenymi ramcekmi je ktory stroj?

to bude ten Dell PowerEdge R730, podle vzhledu.

3
Hardware / Re:PC zdroj se stejnosměrným vstupem
« kdy: 01. 09. 2025, 23:15:52 »
nestrkej tam DC, je těžké odhadnout a zjistit, co to ve výsledku udělá.

Kub si DC ATX měnič, dá se sehnat toho docela hodně, např. https://www.exasoft.cz/eurocase-90w-dc12v-dc-atx-pico_d314444.html, strčit se to dá do krabičky od zdroje, případně si to můžeš nechat někoho sestavit dohromady.

Mně takhle běží domácí servery, nechtěl jsem už provozovat UPS se střídačem a tak vše předělal na DC, teď to jede z baterky přímo, UPS nepotřebuje extra velké chlazení. Průmyslové ATX DC zdroje jsou, ale stojí raketu.

4
Distribuce / Re:Proč vychází tolik jader pro RHEL/Alma?
« kdy: 31. 07. 2025, 12:00:44 »
Fakt nevim, jestli se nas tyka: RDMA/mlx5: Fix page_size variable overflow (CVE-2025-22091)
Navic si nemyslim, ze bychom meli zamestnat znalce linuxiho kernelu jen proto, abychom mohli instalovat zaplatovane verze s mensi frekvenci.

Začaly se ty věci poctivěji evidovat jako CVE a řešit samostatně. Sleduji https://lore.kernel.org/linux-cve-announce/, je toho prostě násobně víc než vloni, kdy asi řada bezpečnostních oprav skončila jako běžná kumulovaná úprava.

Na to, abys mohl třídit opravy podle driverů nebo subsystémů, které používáš, nepotřebuješ nějak velkého znalce linuxového kernelu, potřebuješ prachobyčejného linux admina, který umí pracovat s linuxem.

Jak to děláme my? Limitně se aktualizuje vše v nějakém pravidelném intervalu (třeba 3 měsíce), ale urgentně se aktualizuje jen to, co má reálný vliv a co se používá, takže opravu RDMA/mlx5 nebudu prioritizovat na linux stroj, kde mám jen ethernet karty. Tohle rozlišování bylo potřeba dělat odjakživa, stejně tak fungujeme i na Windows, kdy se musíme probírat aktualizacemi a rozhodovat, co a jak prioritizujeme.

U těch hodně kritických zranitelností využíváme kexec pro aplikaci patche na kernel (má to samozřejmě dopad na všechny procesy, které se musí restartovat). Snaha v posledních letech se odpovědněji chovat k systémům nás postupně dovedla k tomu, že vše máme dvojmo, resp. že minimalizujeme stav, kdy máme jen jediný server s nějakou službu a vše zdvojujeme, automatizujeme, aby se mohl udělat restart bez výpadku a hlavně odzkoušet případné problémy dopředu. Virtualizace a kontejnerizace tomu jde naproti.

5
Vývoj / Re:Implementace vlastního WYSIWYG editoru
« kdy: 18. 07. 2025, 09:11:10 »
content editable je velká bažina. Také se hlásím k těm, co v tom utopili desítky dnů práce a výsledek spíše kontroverzní.

Velký problém je třeba práce se schránkou, protože v ní jsou naprosté šílenosti, které musíš interpretovat, čistit, opravovat nebo se vykašlat kompletně na formátování, bohužel s contentEditable to vůbec nemáš pod kontrolou.

Další velký problém je chování jednotlivých prohlížečů a OS. ContentEditable totiž nemá žádné specifikace a pravidla, každý prohlížeč to dělá trochu jinak. Aktivita k nějaké standardizace běží už spoustu let https://w3c.github.io/editing/, ale už to roky nesleduji.

ContentEditable je pomsta MS budoucím generacím.

Mrkni třeba na https://github.com/basecamp/trix, celý render implementuje v js a jde naprosto skvěle přizpůsobit. Nebo https://prosemirror.net, který dokonce už markdown podporuje, sice contentEditable, ale s hacky, používám ho rád na projektech pro zadávání vstupu od uživatele nebo konfiguračních yamlů.

6
Vývoj / Re:Implementace vlastního WYSIWYG editoru
« kdy: 18. 07. 2025, 09:05:16 »
content editable je velká bažina. Také se hlásím k těm, co v tom utopili desítky dnů práce a výsledek spíše kontroverzní.

Velký problém je třeba práce se schránkou, protože v ní jsou naprosté šílenosti, které musíš interpretovat, čistit, opravovat nebo se vykašlat kompletně na formátování, bohužel s contentEditable to vůbec nemáš pod kontrolou.

Další velký problém je chování jednotlivých prohlížečů a OS. ContentEditable totiž nemá žádné specifikace a pravidla, každý prohlížeč to dělá trochu jinak. Aktivita k nějaké standardizace běží už spoustu let https://w3c.github.io/editing/, ale už to roky nesleduji.

ContentEditable je pomsta MS budoucím generacím.

Mrkni třeba na https://github.com/basecamp/trix, celý render implementuje v js a jde naprosto skvěle přizpůsobit. Nebo https://prosemirror.net, který dokonce už markdown podporuje a také bez contentEditable, používám ho rád na projektech pro zadávání vstupu od uživatele nebo konfiguračních yamlů.

7
na autorizaci těch streamů potřebuješ mít veřejný webový server, kam ti pošlou token, zjednodušeně řečeno, když to děláš od sebe z počítače, tak se prostě přihlásíš přímo v té aplikaci, ta si drží token.

Na jednu stranu si stěžuješ na službu za 1000 na měsíc a pak tady chceš vymyslet něco, co budeš prodávat za kolik, za 30k? Tj. návratnost 3 roky a k tomu budeš muset držet podporu a aktualizovat to, počítáš s tím?

Já v tom nevidím obchodní strategii, zejména ne v takhle malém rozměru a postavené na nějakém mini itx s linuxem.

8
Studium a uplatnění / Re:krizova situace
« kdy: 10. 07. 2025, 08:20:42 »
takové krize mám rád, je to nejlepší způsob na prosazením změn a vyjednávání k tvému prospěchu :).

Sedni si k čistému stolu, vypiš si agendu, rozdělil jí podle priorit a přidané hodnoty, přiděl zdroje (já vím, dnes se spíše říká čas, osobu, místo), udělej pravidelné status meetingy a vyplňuj si postup do tabulky. Buď otevřený, hlavně vůči sobě a nepřeceňuj se, všechny stavy práce předávej nadřízeným. Když nelze přibrat další lidi, vždy je možné si dočasně najmout externí společnost, aby ti s něčím pomohla (to je mimochodem můj obor, v takových projektech se cítím dobře).

Nejvíc stresu máš z neznáma, kdy nevíš, kdy se to sesype, kdy nejsi schopný dodržet termín. Odstraň nejistotu, narovnej časový plán, neskrývej, že něco ti jde pomalu a něco rychle, přestaň dělat zbytečnosti (dost subjektivní!), hlavně nepracuj nad pracovní dobu. Odmítej novou práci nebo jí naopak zařaď na konec seznamu. Přestaň o tom přemýšlet a mluvit jako o krizi :).

9
Vývoj / Re:K čemu je v PHP dobré použít framework?
« kdy: 20. 06. 2025, 15:15:03 »
Chatgpt vytrvale rika, ze pro reusable components se to dela v PHP takto:

Kód: [Vybrat]
// components/Button.php
function Button($text, $href) {
    return "<a href=\"" . htmlspecialchars($href) . "\">$text</a>";
}

to bys neměl takhle dělat, framework má smysl, protože php je plné pastí. Když bude v href třeba tohle

Kód: [Vybrat]
javascript:alert(document.cookie)

tak ti to bez problémů projde a asi nemusím zmiňovat, že alert je jen ukázka, on tam může být skoro jakýkoliv JS kód a ten nepotřebuje uvozovky.

Spousty zábavy si pak zažiješ, když htmlspecialchars použiješ v jiném kontextu nebo na vstupu neošetříš multibyte znaky.

10
Vývoj / Re:If bez curly brackets?
« kdy: 20. 06. 2025, 09:27:36 »
Lepsi jsou kulaty zavorky.. .
Kód: [Vybrat]
(if (= a b)
  (do-something)
  (do-something-else))


konečně rozumný názor! Na co potřebujeme mít více druhů závorek, když si vystačíme s jedním, s-expressions forever.

11
Hardware / Re:USB-C zdroj pro tři notebooky zároveň
« kdy: 17. 06. 2025, 16:23:16 »
PoE+++ je nějaký výmysl jedné společnosti. Standard 802.3bt zná tak akorát PoE++.

Ono PoE je obecně od počátku dost kontroverzní, ty kabely a porty na to nejsou stavěny, tahat přes to desítky W může být dost nebezpečné, zejména pokud se nejedná o statické tažení někde v chráničce, ale je to volný ohebný kabel někde na stole.

USB kabely jsou technicky na to lépe připraveny, ale zase jsou krátké. Na druhou stranu mít 40m eth kabel a v něm držet na těch titěrných drátkách stabilně 2A (100W PoE+++) také není výhra.

také jsem nějakou dobu hledal nějaký monster multi PD zdroj až jsem prostě koupil malé obvody na PD, všechny strčil na 20v větev (sami si dělají step-down zpravidla na 15v nebo 12v wattů podle zařízení), do cesty jsem jim dal diodu a mosfet na vzdálené vypnutí, k tomu jeden jednočip, který to řídí a měří. Celé jsem to strčil do plechové krabičky a z ní vedou usb-c kabely.

Wow, koukám, že se dělají destičky za dolar. Ve specifikaci se ani neobtěžují definovat jestli to má snižující nebo zvyšující měnič, možná to umí obojí. Bylo by zajímavé pomocí něčeho takového dát nový život starým nabíječkám od vyřazených laptopů.

Mrkni obrázek, to bude jen snižující. Lze to dovodit i ze specky vstupu, která je nad PD hodnotami (Input voltage: DC8-30V).

12
Hardware / Re:USB-C zdroj pro tři notebooky zároveň
« kdy: 17. 06. 2025, 15:27:52 »
také jsem nějakou dobu hledal nějaký monster multi PD zdroj až jsem prostě koupil malé obvody na PD, všechny strčil na 20v větev (sami si dělají step-down zpravidla na 15v nebo 12v wattů podle zařízení), do cesty jsem jim dal diodu a mosfet na vzdálené vypnutí, k tomu jeden jednočip, který to řídí a měří. Celé jsem to strčil do plechové krabičky a z ní vedou usb-c kabely.

Na vstupu mám limit 5A, běžně to má pro asi 5 zařízení odběr mezi 2 - 3 A. Celkovou účinnost mám kolem 80 % (měřeno mezi vstupem do 20V zdroje a výstupem z jednotlivých PD; něco pak samozřejmě ztratí samotné zařízení).

Nesnaž se to vertikálně škálovat (více konektorů v jednom zařízení), ale jak tady píše i Ondra Celetka, dej si tam více samostatných adaptérů. Ty si klidně můžeš schovata do nějakého úhledného boxu, aby to nevypadalo ošklivě. S jedním multiboxem je problém i provozní, ony se ti ty usb PD při každém připojení/odpojení restartují a protokol se dohaduje znovu, pokud notebooky nemají baterii, mohou se ti vypínat.

13
Vývoj / Re:K čemu je v PHP dobré použít framework?
« kdy: 04. 06. 2025, 20:55:03 »
ve světě linux a open source se používá miliony věcí, které stojí na jediném člověku.

Pro mě je stav, kdy je kód konzervovaný, chyby opravované zase výhoda, nemusím aplikaci co rok přepisovat, aby to fungovalo nebo naopak neaktualizovat.

V práci si užívám dost neustálého přepisování, tak jsem občas rád, když mohu mít doma kód, na který jsem deset let nemusel šáhnout, protože funguje a není potřeba ho opravovat.

14
Server / Re:Hardwarový RAID nebo ZFS?
« kdy: 22. 05. 2025, 00:13:59 »
mimochodem, jaké máš zkušenosti s obnovou HW raidů? Já jsem z toho segmentu trochu rozporuplný, těch kontaktů s podporou daného výrobce jsem zažil asi už příliš, ty hromady ručně nahrávaných firmwarů, která support háže jak na běžícím pásu (segment 1U - 4U standalone serverů nikoliv diskových polí). S ZFS to je poměrně lahoda a ani si nepamatuji, kdy jsem nebyl schopný vadný disk za rozumnou dobu obnovit. Naopak provoz ZFS už taková lahoda není, chce to trochu studování.

Mně u HW raidů prostě vadí jak strašný to je blackbox, jak extrémně málo interních informací ti výrobce poskytne, jak to je plné různých bugů a problémů, které se prostě řeší dny na podpoře. Naštěstí dnes prakticky všude už žádná důležitá data na lokálních discích nemáme a raději celý server obnovujeme, když odejde OS disk.

Pomalu se kloním k variantě, kdy je lepší asi raději ty raidy nepoužívat vůbec a data rovnou replikovat na jiný server. Je to jednoduší, transparentní, lze to rozšířit snadněji o plnohodnotné zálohání, není potřeba taková fůra znalostí kolem toho všeho. Není nic horšího než čekat na seniora, který zrovna je někde v loji a bez něj nejsi schopný server obnovit, protož tam je vždy nějaké "ale" a každá chyba může vést ke ztrátě dat.

15
Server / Re:Hardwarový RAID nebo ZFS?
« kdy: 21. 05. 2025, 15:57:31 »

1) nepsal sem raid 50. Psal sem RAID5 + RAID1 - uzivatel ma 6 disku a ma to na lab - za me naprosto idealni setup Chovani v degraded stavu muzete ovlivnit nastavenim radice, kdy muzete prioritizovat rebuild nad i/o a obracene. Souhlasim s tim ze vice disku v raidu/logical volumu => vetsi moznost ze nejaky selze. Ncimene jak se s tim to ci ono pole popasuje zalezi na name. Meli jsme to treba HPE Evu ktera delala diskgroupy po 12 discich a nikomu to nevadilo. Meli jsme tu treba ibm storvize, kde byl aktivni cely rack a taky to nikomu nevadilo.


Moje chyba, psal jsi raid 5 + mirror, pochopil jsem to jako 50. Prioritizovat rebuild, ano, pokud máš spare disky, může to být background proces, to je asi nejvhodnější řešení při použití pětky.

2) Na server raid radicich zase ocenuji prediktive failure, kdy casto dostane hlasku o tom "ze se neco deje", ncimene disk funguje dal a pole neni v degraded stavu. Vendori takova disky uzvanvaji jako vadne a automaticky je meni (ne ze by pro lab to bylo smerodate), ale mate imo vetsi cas tim neco udelat.

HW Raid skryje před ZFS cenná data o chování disků a přidává falešné flushe, tj. zvyšuje se riziko ztráty dat.

Jak ? Prosim rozvest

Jj, tak to i běžně měníme jak na běžícím pásu a pro reklamaci se poskytuje jen report z řadiče.

ZFS má vlastní mechanismus jak detekuje vadný disk a případně ho nahrazuje za spare, pokud ale vidí virtuální blokové zařízení, jeho metriky neodpovídají stavu fyzického disku (to je v případě třeba vytvoření raid 0 s jedním diskem jako simulace JBODu/HBA, když to řadič neumí). Raid zpravidla zápisy strká do cache a reportuje jako zapsané do OS (narozdíl od HBA), opakované čtení čte data z cache, ikdyž se na pozadí ještě nemuselo podařit je zapsat fyzicky na disk, zfs se pak chybně může domnívat, že jsou data persistovaná.

Samozřejmě, když tyhle omezení znám, není to překážka, není velký problém data z disků do zfs reportovat jinou cestou nebo vlastním daemonem aktivovat spare disky. Stejně tak není problém mít agresivnější a častější self healing. U datových serverů s velkým provozem cache v řadič zpravidla není schopná držet moc dat, takže problémy se záhy ukážou. Jde s tím žít, ale musíš se podle toho zařídit.


Qemu a jeho qcow sice poskytuje podobné funkce pokud jde o snapshoty, ale jeho stabilita a rychlost jsou naprosto tristní.


Takovou zkusenost tedy opravdu nemam. Rychlost a stabilita je naprosto bezna s podobnout operaci treba ve vshpere

Pokud máš takovou zkušenost, tak je to vlastně super :). QCOW2 výkon padá s počtem snapshotů, propad proti rawu bez jediného snapshotu je ze zkušenosti při čtení asi 20 - 30 % (ano s qcow3 se to zlepšilo, ale nebyl jsem schopný pozorovat skoro nulový rozdíl proti raw, jak avizují v dokumentaci), to není málo. Ano pokud to porovnáváš v single thread, rozdíl je nicotný, pokud ale nad tím máš VM s více fyzickými cpu a konkurenčně čteš/zapisuješ, problém je na světě. Přímé porovnávní proti vsphere jsem nikdy nedělal. QCOW2 při růstu zůstává na jednom blokové zařízení a velmi špatně se rozděluje na více fyzických disků (musíš použít raid), režije při hodně snapshotech a velikosti je značná, to s vspere jsem nepozoroval. Šachování s linkem a vlastní shardering je prostě už příliš komplexní na nějakou údržbu.

QCOW2 má důležitá data v hlavičce souboru, kde se často přepisují, některé věci ti umí qemu-img check -r opravit, ale některé ne. Poškozenou hlavičku jsem viděl už několikrát při chybě disku při zápisu, kupodivu poslední dobou s ssd disky to je častější než kdy dříve. Pak je to na velkém laborování s hlavičkou a dát se ručně nějak rekonstruovat, zejména pokud víš, že k chybě došlo v posledních zápisech. Nějaká kontrola integrity zapsaných dat se s qcow2 moc neděje, zabudované šifrování tomu ale velmi pomáhá.

Slusnej standartni hw raid typu p420 kterej se rve do kazdyho proliantu je imo naprosto dostacujici pro 90% entry/midrange prostredi

To s tebou souhlasím, pokud se někdo musí ptát na zfs, nejspíš to není systém pro něj a obyčejný ext/btrfs nad hw raidem mu poslouží daleko lépe.

Stran: [1] 2 3 ... 65