Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - Darkhunter

Stran: [1] 2 3 ... 16
1
Server / Re:FreeIPA a mailserver Stalwart
« kdy: 24. 11. 2025, 16:43:18 »
FYI: Thunderbird Oauth2 podporuje už leta, jen tak se s ním jde stahovat třeba pošta z gmailu...
Nějaké info tu: https://support.mozilla.org/en-US/kb/microsoft-oauth-authentication-and-thunderbird-202
On on tam má Hardcoded asi pět hlavních providerů emailů. Mimo ně to bohužel nejde.

2
Server / Re:FreeIPA a mailserver Stalwart
« kdy: 24. 11. 2025, 15:51:44 »
Resili jsme neco podobneho(take mame IPA), ale na nic jsme neprisli. I kdyby se vam pres nejaky addon podarilo pridat oauth do Thunderbirdu, co budete delat s Android a nebo Apple klienty. To u vas nikdo nechce cist emaily na telefonu? IMAP a 2fa proste nejsou kamaradi  ;).
No já bych tou cestou Oauth2 rád šel, ale vím, že je to teď nemožné.
Tak to vypadá fakt na implementaci nějaké LDAP cache.

3
Server / Re:FreeIPA a mailserver Stalwart
« kdy: 24. 11. 2025, 15:50:59 »
Nevim jestli jsem pochopil dotaz :) ale kouknul bych na OpenOTP, ten má nějakou formu LDAP bridge - https://www.rcdevs.com/products/ldproxy/
Bohužel potřebuju přesný opak. Mám heslo + 2FA a do emailu potřebuju buď zadávat bez 2FA nebo to 2FA mít nějakou dobu cached.

4
Server / Re:FreeIPA a mailserver Stalwart
« kdy: 24. 11. 2025, 11:39:25 »
Stalwart umi app paswords/aplikacni hesla. Ale zrovna v posledni verzi 0.14.x to pry v kombinaci s LDAP zlobi.
https://github.com/stalwartlabs/stalwart/pull/2423

Do Thunderbirda by mela jit OAuth configurace pro 3rd party IdM doplnit nejak pres primou editaci konfiguraku.
Nove se objevil i add-on, ale jeste jsem ho nezkousel.
https://github.com/raa-org/thunderbird-custom-idp
Plugin do Thunderbirdu použít nemůžu. To by nám šíleně zesložitilo onboarding.

Ohledně těch app passwordů ve Stalwartu jsem pochopil, že to pak nemůže používat LDAP. Ale čistě závislé na interním directory. Tzn bych musel ve Stalwartu ty uživatele manuálně vytvářet a to nechci. Ideální by bylo, kdyby na self-service se používal LDAP a pak na emaily už ten app password.

Každopádně díky za info.

5
Server / FreeIPA a mailserver Stalwart
« kdy: 22. 11. 2025, 12:25:10 »
Zdravím,
už nějakou dobu řeším pro mě dost zapeklitou situaci.
Pro správu uživatelů mám FreeIPA pro LDAP, kde před tím mám buď Keycloak nebo Radius.
Jak Keycloak, tak Radius mám nastavené na to, že 24 hodin cachují přihlášení/session, aby se pokaždé nemusely přihlašovat do FreeIPA, kde mám povolené jen heslo + 2FA.
Problém je ale s tím, že chci mailserver zmigrovat do Stalwartu a byť ten umožňuje velké množství napojení na user directory, tak mohu použít jen LDAP. Oauth2/OIDC použít nemohu, protože Thunderbird je nepodporuje. Každopádně teď mám problém, že při jakékoliv manipulaci emailu to po mně chce nové heslo (samozřejmě, když se každých 30 sekund mění) a já bych potřeboval tady stejně cachovat 24 hodin přihlášení, ale to mi Stalwart neumožňuje.
Tzn tu potřebuji přidat zase nějakou mezivrstvu. Koukal jsem na nějaké LDAP proxy a žádný z těchto utilitek tohle neumí.
Tak jsem se chtěl zeptat, jestli nemáte nějaký lepší nápad nebo nevíte o nějaké té mezivrstvě, co by splňovala moje požadavky. Chtěl jsem to zkusit ještě tady, než si na to napíšu tu mezivrstvu sám.
Díky za rady!

6
Server / Re:Utilizace disku zahlcuje celý server
« kdy: 12. 02. 2025, 13:18:39 »
Tak jsem to dále zkoumal. Když spustím fstrim, tak to zhruba 2 hodiny je ok a pak postupně to jde do toho maximálního loadu. Vidím i jak utilizace časem stoupá. Pro všechny FS, které jsou na ext4, jsem zapl discard, ale nepomohlo to. Takže nezbývá asi než zapnout trim každé dvě hodiny?

7
Server / Re:Utilizace disku zahlcuje celý server
« kdy: 11. 02. 2025, 21:43:41 »
Tak ještě posílám SMART
Kód: [Vybrat]
=== START OF INFORMATION SECTION ===
Model Number:                       Lexar SSD NM790 4TB
Serial Number:                      NHG456R000109P2202
Firmware Version:                   12237
PCI Vendor/Subsystem ID:            0x1d97
IEEE OUI Identifier:                0xcaf25b
Total NVM Capacity:                 4,096,805,658,624 [4.09 TB]
Unallocated NVM Capacity:           0
Controller ID:                      0
NVMe Version:                       2.0
Number of Namespaces:               1
Namespace 1 Size/Capacity:          4,096,805,658,624 [4.09 TB]
Namespace 1 Formatted LBA Size:     512
Namespace 1 IEEE EUI-64:            caf25b 038a00006d
Local Time is:                      Tue Feb 11 21:41:32 2025 CET
Firmware Updates (0x14):            2 Slots, no Reset required
Optional Admin Commands (0x0017):   Security Format Frmw_DL Self_Test
Optional NVM Commands (0x005f):     Comp Wr_Unc DS_Mngmt Wr_Zero Sav/Sel_Feat Timestmp
Log Page Attributes (0x0a):         Cmd_Eff_Lg Telmtry_Lg
Maximum Data Transfer Size:         128 Pages
Warning  Comp. Temp. Threshold:     90 Celsius
Critical Comp. Temp. Threshold:     95 Celsius

Supported Power States
St Op     Max   Active     Idle   RL RT WL WT  Ent_Lat  Ex_Lat
 0 +     6.50W       -        -    0  0  0  0        0       0
 1 +     5.80W       -        -    1  1  1  1        0       0
 2 +     3.60W       -        -    2  2  2  2        0       0
 3 -   0.0500W       -        -    3  3  3  3     5000   10000
 4 -   0.0025W       -        -    4  4  4  4     8000   41000

Supported LBA Sizes (NSID 0x1)
Id Fmt  Data  Metadt  Rel_Perf
 0 +     512       0         0

=== START OF SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

SMART/Health Information (NVMe Log 0x02)
Critical Warning:                   0x00
Temperature:                        44 Celsius
Available Spare:                    100%
Available Spare Threshold:          10%
Percentage Used:                    8%
Data Units Read:                    27,740,478 [14.2 TB]
Data Units Written:                 230,197,058 [117 TB]
Host Read Commands:                 193,118,068
Host Write Commands:                2,974,223,159
Controller Busy Time:               20,098
Power Cycles:                       25
Power On Hours:                     4,952
Unsafe Shutdowns:                   22
Media and Data Integrity Errors:    0
Error Information Log Entries:      0
Warning  Comp. Temperature Time:    0
Critical Comp. Temperature Time:    0
Temperature Sensor 1:               44 Celsius
Temperature Sensor 2:               31 Celsius

Error Information (NVMe Log 0x01, 16 of 64 entries)
No Errors Logged

Self-test Log (NVMe Log 0x06)
Self-test status: No self-test in progress
Num  Test_Description  Status                       Power_on_Hours  Failing_LBA  NSID Seg SCT Code
 0   Extended          Completed without error                4945            -     -   -   -    -
 1   Short             Completed without error                4945            -     -   -   -    -

8
Server / Re:Utilizace disku zahlcuje celý server
« kdy: 11. 02. 2025, 21:40:11 »
Jestli to jsou soho disky koupeny nekde v garazi, tak bych se podobnymu chovani vubec nedivil. Podle toho jak to popisujes, tak je jeden disk vyrazne horsi, a kdyz ho das do raidu, tak na nej ten raid chte nechte musi cekat.

Jinak na MB/s nesejde, to co potrebujes znat jsou IOps.
Jasně, že na MB/s nesejde, ale i to IO je dost nízké...A ze zápisu v rámci kb/s taky neuděláš extra IO.

9
Server / Re:Utilizace disku zahlcuje celý server
« kdy: 11. 02. 2025, 21:39:23 »
Co to je za raid konfiguraci? Mas tam funkcni trim?

Jaky je model disku a jsou disky spravne chlazeny?

Osobne bych kazdy disk vyradil z raidu, udelal trim, provedl fio test zamereny na latence, udelal trim, vratil do raidu.
Je to RAID1, takže to by bylo dost složité. Zkusím to flo.

10
Server / Re:Utilizace disku zahlcuje celý server
« kdy: 11. 02. 2025, 21:38:09 »
Jsou to max 6 měsíců starý disky. Mají najeto asi 50TBW s tím, že mají mít 4kTBW životnost. Modely zjistím zítra.
Když jsem naposledy dělal fstrim, tak to pomohlo. Ale jen na chvilku...Teď mám zaplý fstrim jednou týdně.

11
Server / Utilizace disku zahlcuje celý server
« kdy: 11. 02. 2025, 14:16:46 »
Zdravím,
popravdě nevím, která to je kategorie - jestli hardware nebo software, protože nevím, kde je chyba.
Máme server, kde nám běží 4xNVME v LVMraidech po dvou, na tom nám běží Linux s Dockerem.
Problém je, že máme load pořád větší, než počet CPU a celkově to, co na serveru běží, není snappy.
Koukal jsem, že load vysoký, ale všechno je to na IOwaitu.
Koukal jsem na iotop i další utilitky a IO bylo maximálně v jednotkách MB. To by měly NVME disky ustát.
Pak jsem řešil s chatgpt a to mi poradilo asi 40 věcí, ale žádná nepomohla.
Zapnul jsem si pak utilitku sar, kde vidím, že má jeden disk daleko větší load než ostatní, ale když jsou to stejné disky nvme2+nvme3, tak by měly mít jiný load? Také se děje, že občas je to v pořádku, ale většinou dost špatné. Ten inkriminovaný disk má ve smartu všechno v pořádku a dokonce i speedtest byl ok...
Sar mi printí toto(3 z 5 zobrazení vysoký load několika lvs a jednoho disky, 2 z 5 nulový load všude):
Kód: [Vybrat]
14:00:19          DEV       tps     rkB/s     wkB/s     dkB/s   areq-sz    aqu-sz     await     %util
14:00:24      nvme3n1     20.00      0.00     87.20      0.00      4.36      0.03      1.06      1.14
14:00:24      nvme1n1     18.60      0.00     82.40      0.00      4.43      0.02      0.68      1.00
14:00:24      nvme2n1     35.80      0.00    553.60      0.00     15.46     14.11    306.36    112.80
14:00:24      nvme0n1     39.40      0.00    572.00      0.00     14.52      0.23      5.03      1.54
14:00:24         dm-0      6.00      0.00     12.00      0.00      2.00      0.04      6.43    108.06
14:00:24         dm-1     55.80      0.00    560.00      0.00     10.04      0.21      3.81     44.14
14:00:24         dm-2      4.20      0.00      8.00      0.00      1.90      2.34    556.05    100.00
14:00:24         dm-3     54.00      0.00    545.60      0.00     10.10     14.41    266.85     99.88
14:00:24         dm-5      4.00      0.00      8.00      0.00      2.00      0.01      1.80      0.74
14:00:24         dm-6     14.20      0.00     64.00      0.00      4.51      0.00      0.06      0.06
14:00:24         dm-7      4.00      0.00      8.00      0.00      2.00      0.01      1.85      0.72
14:00:24         dm-8     14.20      0.00     64.00      0.00      4.51      0.00      0.04      0.06
14:00:24         dm-4    107.80      0.00   1091.20      0.00     10.12    308.78   2864.39    100.00
14:00:24         dm-9     28.20      0.00    128.00      0.00      4.54      0.00      0.09      0.08
14:00:24        dm-10      5.20      0.00     25.60      0.00      4.92      0.01      2.69      0.34
14:00:24        dm-11      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
14:00:24        dm-12      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
14:00:24        dm-13      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
14:00:24        dm-14      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
14:00:24        dm-15      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
14:00:24        md127      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00

Nevíte, co by s tím mohlo být? Už to řeším hrozně dlouho a na nic jsem nepřišel...
Díky!

12
Server / Re:Server s Dockerem zamrzá
« kdy: 13. 08. 2024, 14:20:29 »
Tak jsem to ještě více debugoval.
Za poslední dny to crashuje každý den minimálně jednou a neděje se pouze, když je server hodně vytížen.
Poslední logy, co vidím na serveru, jsou:
Kód: [Vybrat]
[nodemon] starting `node  ./src/main.js || touch ./src/main.js`
Tzn to není při kompilaci, ale při startu node appky.
Vypnul jsem CPB/Turboboost a teploty CPU nejdou nad 65°C.
Přečtu si vaše rady a zkusím aplikovat.
Jinak memtest jsem procházel několikrát a vše v pohodě. Ve stejné sestavě a jen s vyměněným 5950X za 5800X3D to běželo půl roku, než jsem tam tu 5950X zase hodil. Tou 5950Xkou to taky není. Reklamoval jsem ji a měl jsem celkově tři kusy a všechny stejnej behavior. Je možné teda ale, že ty ramky začaly blbnout až teď a předtím to padalo jen s vyššími takty.

13
Server / Server s Dockerem zamrzá
« kdy: 04. 08. 2024, 18:44:07 »
Ahoj,
už nevím, co s tím dále debugovat a řeším to skoro již dva roky a zatím nic nepomohlo.
Mám DIY server s Ryzenem 5950X + 4x32GB RAM UDIMM ECC + Asrock Rack X470-D4U.
Na serveru běží Archlinux a na něm jen Docker s cca 700 kontejnery.
Od začátku jsem řešil problém, že s tím Ryzenem server padá po spuštění Dockeru třeba po 5 minutách. Proběhlo několik reklamací a nic - prý vše v pořádku. Mezitím jsem tam měl Ryzen 5800X3D a ten byl rock-stable. Nakonec pomohlo snížení frekvence pamětí na polovinu (1333Mhz). Dlouhou dobu to bylo v pořádku, ale pár měsíců zpátky problém zase začal. Myslel jsem, že to bylo teplotou, tak jsem upgradoval case a chladiče. Teplota klesla průměrně o 10 ˚C.

Každopádně to vůbec nepomohlo. Server teď pravidelně padá při buildění jedné monorepo node.js aplikace. Když build běží, tak load serveru není celkově větší než 10 a teploty lezou přes 90°C i přesto, že server mám daný na TDP 80W a PPT 95W. Rozhodl jsem se to dnes znovu řešit, aby to nedělalo v pracovním týdnu nepříjemnosti, ale bohužel nejsem schopný teď server shodit.

Zkoušel jsem stress i stress-ng a i přes extrémní nastavení jsem se nedostal přes 80˚C. Vůbec teda nechápu, jak může nějakej node s loadem max 10 zatopit tolik serveru, že dokáže zamrznout tak, že ani přes IPMI ho nemohu ovládat.

Bohužel si stále nejsem jistý, že to je vysokou teplotou a navíc to teď ani nemohu nasimulovat i přesto, že spouštím několik buildů naráz.

Dá se to nějak oddebugovat, co reálně ten totální freeze způsobilo? V logách ani nikde jinde nic nemám a bohužel to teď ani nemůžu nasimulovat no...

14
Hardware / Re:Miracast nebo nějaká náhrada?
« kdy: 06. 05. 2024, 17:47:37 »
Díky všem za rady.
To "WiFI HDMI" si objednám z AliExpresu a vyzkouším.
Mají tam dokonce i dobré webky, tak tu koupím rovnou asi s tím a konečně budu mít konferenční místnost.
Případně nevíte, jestli neexistuje také nějaké takové čínské all-in-one řešení na konferenční místnost s tím, že to stačí připojit k TV? Myslím tím screen sharing + webka + mikrofon?

15
Hardware / Re:Miracast nebo nějaká náhrada?
« kdy: 02. 05. 2024, 14:20:53 »
Není pravda, že Chromecast funguje jen pro YT (to platilo jen úplně na začátku, když to byla úplná novinka). Pustíš Chrome, dáš promítat na Chromecast, a zapneš sdílení celé plochy. Chrome pak shodíš do lišty a posíláš všechno, co se ti na ploše děje, včetně aplikací. Akorát je tam asi 200ms latence.
Další možnost je nějaký hodně tenký/ zero klient s VNC, a navázat spojení ze "serveru".
Mně ten chromecast mimo Google stránky prostě nefunguje. Řekne mi to nepodporovaná stránka a video mi zmizne. Je ale fakt, že používám chromium, tak možná to bude ten problém.

Na prezentovanie existuju systemy, ktore umoznuju pripojit viac pocitacov naraz a "prehadzovat si", kto prave ovlada obrazovku.

Prisiel s tym povodne ClickShare, ale ten (uz) nepodporuje linux. Z tych, co linux podporuju, asi BenQ InstaShow; netreba nic konfigurovat, ziadne drivery, ziadne SSID, len sa pripoji dongel k hdmi a usb a ide sa. Da sa podat dongel zakaznikovi a ten vie ukazovat obrazovku tiez.
Jo, to vypadá dost dobře a určitě by to splnilo to, co potřebujeme. Ale je to úplně mimo náš rozpočet.

Stran: [1] 2 3 ... 16