Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - Darkhunter

Stran: [1] 2 3 ... 16
1
Server / Re:Utilizace disku zahlcuje celý server
« kdy: 12. 02. 2025, 13:18:39 »
Tak jsem to dále zkoumal. Když spustím fstrim, tak to zhruba 2 hodiny je ok a pak postupně to jde do toho maximálního loadu. Vidím i jak utilizace časem stoupá. Pro všechny FS, které jsou na ext4, jsem zapl discard, ale nepomohlo to. Takže nezbývá asi než zapnout trim každé dvě hodiny?

2
Server / Re:Utilizace disku zahlcuje celý server
« kdy: 11. 02. 2025, 21:43:41 »
Tak ještě posílám SMART
Kód: [Vybrat]
=== START OF INFORMATION SECTION ===
Model Number:                       Lexar SSD NM790 4TB
Serial Number:                      NHG456R000109P2202
Firmware Version:                   12237
PCI Vendor/Subsystem ID:            0x1d97
IEEE OUI Identifier:                0xcaf25b
Total NVM Capacity:                 4,096,805,658,624 [4.09 TB]
Unallocated NVM Capacity:           0
Controller ID:                      0
NVMe Version:                       2.0
Number of Namespaces:               1
Namespace 1 Size/Capacity:          4,096,805,658,624 [4.09 TB]
Namespace 1 Formatted LBA Size:     512
Namespace 1 IEEE EUI-64:            caf25b 038a00006d
Local Time is:                      Tue Feb 11 21:41:32 2025 CET
Firmware Updates (0x14):            2 Slots, no Reset required
Optional Admin Commands (0x0017):   Security Format Frmw_DL Self_Test
Optional NVM Commands (0x005f):     Comp Wr_Unc DS_Mngmt Wr_Zero Sav/Sel_Feat Timestmp
Log Page Attributes (0x0a):         Cmd_Eff_Lg Telmtry_Lg
Maximum Data Transfer Size:         128 Pages
Warning  Comp. Temp. Threshold:     90 Celsius
Critical Comp. Temp. Threshold:     95 Celsius

Supported Power States
St Op     Max   Active     Idle   RL RT WL WT  Ent_Lat  Ex_Lat
 0 +     6.50W       -        -    0  0  0  0        0       0
 1 +     5.80W       -        -    1  1  1  1        0       0
 2 +     3.60W       -        -    2  2  2  2        0       0
 3 -   0.0500W       -        -    3  3  3  3     5000   10000
 4 -   0.0025W       -        -    4  4  4  4     8000   41000

Supported LBA Sizes (NSID 0x1)
Id Fmt  Data  Metadt  Rel_Perf
 0 +     512       0         0

=== START OF SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

SMART/Health Information (NVMe Log 0x02)
Critical Warning:                   0x00
Temperature:                        44 Celsius
Available Spare:                    100%
Available Spare Threshold:          10%
Percentage Used:                    8%
Data Units Read:                    27,740,478 [14.2 TB]
Data Units Written:                 230,197,058 [117 TB]
Host Read Commands:                 193,118,068
Host Write Commands:                2,974,223,159
Controller Busy Time:               20,098
Power Cycles:                       25
Power On Hours:                     4,952
Unsafe Shutdowns:                   22
Media and Data Integrity Errors:    0
Error Information Log Entries:      0
Warning  Comp. Temperature Time:    0
Critical Comp. Temperature Time:    0
Temperature Sensor 1:               44 Celsius
Temperature Sensor 2:               31 Celsius

Error Information (NVMe Log 0x01, 16 of 64 entries)
No Errors Logged

Self-test Log (NVMe Log 0x06)
Self-test status: No self-test in progress
Num  Test_Description  Status                       Power_on_Hours  Failing_LBA  NSID Seg SCT Code
 0   Extended          Completed without error                4945            -     -   -   -    -
 1   Short             Completed without error                4945            -     -   -   -    -

3
Server / Re:Utilizace disku zahlcuje celý server
« kdy: 11. 02. 2025, 21:40:11 »
Jestli to jsou soho disky koupeny nekde v garazi, tak bych se podobnymu chovani vubec nedivil. Podle toho jak to popisujes, tak je jeden disk vyrazne horsi, a kdyz ho das do raidu, tak na nej ten raid chte nechte musi cekat.

Jinak na MB/s nesejde, to co potrebujes znat jsou IOps.
Jasně, že na MB/s nesejde, ale i to IO je dost nízké...A ze zápisu v rámci kb/s taky neuděláš extra IO.

4
Server / Re:Utilizace disku zahlcuje celý server
« kdy: 11. 02. 2025, 21:39:23 »
Co to je za raid konfiguraci? Mas tam funkcni trim?

Jaky je model disku a jsou disky spravne chlazeny?

Osobne bych kazdy disk vyradil z raidu, udelal trim, provedl fio test zamereny na latence, udelal trim, vratil do raidu.
Je to RAID1, takže to by bylo dost složité. Zkusím to flo.

5
Server / Re:Utilizace disku zahlcuje celý server
« kdy: 11. 02. 2025, 21:38:09 »
Jsou to max 6 měsíců starý disky. Mají najeto asi 50TBW s tím, že mají mít 4kTBW životnost. Modely zjistím zítra.
Když jsem naposledy dělal fstrim, tak to pomohlo. Ale jen na chvilku...Teď mám zaplý fstrim jednou týdně.

6
Server / Utilizace disku zahlcuje celý server
« kdy: 11. 02. 2025, 14:16:46 »
Zdravím,
popravdě nevím, která to je kategorie - jestli hardware nebo software, protože nevím, kde je chyba.
Máme server, kde nám běží 4xNVME v LVMraidech po dvou, na tom nám běží Linux s Dockerem.
Problém je, že máme load pořád větší, než počet CPU a celkově to, co na serveru běží, není snappy.
Koukal jsem, že load vysoký, ale všechno je to na IOwaitu.
Koukal jsem na iotop i další utilitky a IO bylo maximálně v jednotkách MB. To by měly NVME disky ustát.
Pak jsem řešil s chatgpt a to mi poradilo asi 40 věcí, ale žádná nepomohla.
Zapnul jsem si pak utilitku sar, kde vidím, že má jeden disk daleko větší load než ostatní, ale když jsou to stejné disky nvme2+nvme3, tak by měly mít jiný load? Také se děje, že občas je to v pořádku, ale většinou dost špatné. Ten inkriminovaný disk má ve smartu všechno v pořádku a dokonce i speedtest byl ok...
Sar mi printí toto(3 z 5 zobrazení vysoký load několika lvs a jednoho disky, 2 z 5 nulový load všude):
Kód: [Vybrat]
14:00:19          DEV       tps     rkB/s     wkB/s     dkB/s   areq-sz    aqu-sz     await     %util
14:00:24      nvme3n1     20.00      0.00     87.20      0.00      4.36      0.03      1.06      1.14
14:00:24      nvme1n1     18.60      0.00     82.40      0.00      4.43      0.02      0.68      1.00
14:00:24      nvme2n1     35.80      0.00    553.60      0.00     15.46     14.11    306.36    112.80
14:00:24      nvme0n1     39.40      0.00    572.00      0.00     14.52      0.23      5.03      1.54
14:00:24         dm-0      6.00      0.00     12.00      0.00      2.00      0.04      6.43    108.06
14:00:24         dm-1     55.80      0.00    560.00      0.00     10.04      0.21      3.81     44.14
14:00:24         dm-2      4.20      0.00      8.00      0.00      1.90      2.34    556.05    100.00
14:00:24         dm-3     54.00      0.00    545.60      0.00     10.10     14.41    266.85     99.88
14:00:24         dm-5      4.00      0.00      8.00      0.00      2.00      0.01      1.80      0.74
14:00:24         dm-6     14.20      0.00     64.00      0.00      4.51      0.00      0.06      0.06
14:00:24         dm-7      4.00      0.00      8.00      0.00      2.00      0.01      1.85      0.72
14:00:24         dm-8     14.20      0.00     64.00      0.00      4.51      0.00      0.04      0.06
14:00:24         dm-4    107.80      0.00   1091.20      0.00     10.12    308.78   2864.39    100.00
14:00:24         dm-9     28.20      0.00    128.00      0.00      4.54      0.00      0.09      0.08
14:00:24        dm-10      5.20      0.00     25.60      0.00      4.92      0.01      2.69      0.34
14:00:24        dm-11      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
14:00:24        dm-12      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
14:00:24        dm-13      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
14:00:24        dm-14      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
14:00:24        dm-15      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
14:00:24        md127      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00

Nevíte, co by s tím mohlo být? Už to řeším hrozně dlouho a na nic jsem nepřišel...
Díky!

7
Server / Re:Server s Dockerem zamrzá
« kdy: 13. 08. 2024, 14:20:29 »
Tak jsem to ještě více debugoval.
Za poslední dny to crashuje každý den minimálně jednou a neděje se pouze, když je server hodně vytížen.
Poslední logy, co vidím na serveru, jsou:
Kód: [Vybrat]
[nodemon] starting `node  ./src/main.js || touch ./src/main.js`
Tzn to není při kompilaci, ale při startu node appky.
Vypnul jsem CPB/Turboboost a teploty CPU nejdou nad 65°C.
Přečtu si vaše rady a zkusím aplikovat.
Jinak memtest jsem procházel několikrát a vše v pohodě. Ve stejné sestavě a jen s vyměněným 5950X za 5800X3D to běželo půl roku, než jsem tam tu 5950X zase hodil. Tou 5950Xkou to taky není. Reklamoval jsem ji a měl jsem celkově tři kusy a všechny stejnej behavior. Je možné teda ale, že ty ramky začaly blbnout až teď a předtím to padalo jen s vyššími takty.

8
Server / Server s Dockerem zamrzá
« kdy: 04. 08. 2024, 18:44:07 »
Ahoj,
už nevím, co s tím dále debugovat a řeším to skoro již dva roky a zatím nic nepomohlo.
Mám DIY server s Ryzenem 5950X + 4x32GB RAM UDIMM ECC + Asrock Rack X470-D4U.
Na serveru běží Archlinux a na něm jen Docker s cca 700 kontejnery.
Od začátku jsem řešil problém, že s tím Ryzenem server padá po spuštění Dockeru třeba po 5 minutách. Proběhlo několik reklamací a nic - prý vše v pořádku. Mezitím jsem tam měl Ryzen 5800X3D a ten byl rock-stable. Nakonec pomohlo snížení frekvence pamětí na polovinu (1333Mhz). Dlouhou dobu to bylo v pořádku, ale pár měsíců zpátky problém zase začal. Myslel jsem, že to bylo teplotou, tak jsem upgradoval case a chladiče. Teplota klesla průměrně o 10 ˚C.

Každopádně to vůbec nepomohlo. Server teď pravidelně padá při buildění jedné monorepo node.js aplikace. Když build běží, tak load serveru není celkově větší než 10 a teploty lezou přes 90°C i přesto, že server mám daný na TDP 80W a PPT 95W. Rozhodl jsem se to dnes znovu řešit, aby to nedělalo v pracovním týdnu nepříjemnosti, ale bohužel nejsem schopný teď server shodit.

Zkoušel jsem stress i stress-ng a i přes extrémní nastavení jsem se nedostal přes 80˚C. Vůbec teda nechápu, jak může nějakej node s loadem max 10 zatopit tolik serveru, že dokáže zamrznout tak, že ani přes IPMI ho nemohu ovládat.

Bohužel si stále nejsem jistý, že to je vysokou teplotou a navíc to teď ani nemohu nasimulovat i přesto, že spouštím několik buildů naráz.

Dá se to nějak oddebugovat, co reálně ten totální freeze způsobilo? V logách ani nikde jinde nic nemám a bohužel to teď ani nemůžu nasimulovat no...

9
Hardware / Re:Miracast nebo nějaká náhrada?
« kdy: 06. 05. 2024, 17:47:37 »
Díky všem za rady.
To "WiFI HDMI" si objednám z AliExpresu a vyzkouším.
Mají tam dokonce i dobré webky, tak tu koupím rovnou asi s tím a konečně budu mít konferenční místnost.
Případně nevíte, jestli neexistuje také nějaké takové čínské all-in-one řešení na konferenční místnost s tím, že to stačí připojit k TV? Myslím tím screen sharing + webka + mikrofon?

10
Hardware / Re:Miracast nebo nějaká náhrada?
« kdy: 02. 05. 2024, 14:20:53 »
Není pravda, že Chromecast funguje jen pro YT (to platilo jen úplně na začátku, když to byla úplná novinka). Pustíš Chrome, dáš promítat na Chromecast, a zapneš sdílení celé plochy. Chrome pak shodíš do lišty a posíláš všechno, co se ti na ploše děje, včetně aplikací. Akorát je tam asi 200ms latence.
Další možnost je nějaký hodně tenký/ zero klient s VNC, a navázat spojení ze "serveru".
Mně ten chromecast mimo Google stránky prostě nefunguje. Řekne mi to nepodporovaná stránka a video mi zmizne. Je ale fakt, že používám chromium, tak možná to bude ten problém.

Na prezentovanie existuju systemy, ktore umoznuju pripojit viac pocitacov naraz a "prehadzovat si", kto prave ovlada obrazovku.

Prisiel s tym povodne ClickShare, ale ten (uz) nepodporuje linux. Z tych, co linux podporuju, asi BenQ InstaShow; netreba nic konfigurovat, ziadne drivery, ziadne SSID, len sa pripoji dongel k hdmi a usb a ide sa. Da sa podat dongel zakaznikovi a ten vie ukazovat obrazovku tiez.
Jo, to vypadá dost dobře a určitě by to splnilo to, co potřebujeme. Ale je to úplně mimo náš rozpočet.

11
Hardware / Miracast nebo nějaká náhrada?
« kdy: 01. 05. 2024, 17:36:51 »
Zdravím,
v kanceláři máme dvě televize, ke kterým se momentálně připojujeme přes HDMI, což je totální vopruz...
Potřeboval bych najít nějakou cestu, abych se k nim dokázal připojovat bezdrátově.
Přes Miracast to funguje, ale pouze z Windows/Mac/Android, což většina lidí u nás nemá.
Na Linuxu na několika distribucích a noteboocích jsme zkoušeli buď miraclecast nebo gnome-networks-display a vždy jsme narazili na nějaký problém...
Například na mém notebooku mi to hlásí, že wifi síťovka nepodporuje wifi-direct, což mi přijde jako blbost. Mám síťovku Qualcomm QCNFA765, která by Miracast podporovat měla...
Vypadá to tedy, že používat Miracast není řešení, protože na každém notebooku, kde bychom se chtěli připojit, bychom strávili dny laděním.
Jako možnost mi přijde Steam Link, ale pro schůzky s klientem to není úplně profesionální.
Zkoušeli jsme sdílet přes chrome, což fungovalo, ale tam je to omezeno jen pro YouTube.
Víte o nějakém dalším možném řešení nebo případně máte nějakej trik, jak obecně rozchodit Miracast?
Díky za rady!

12
Ok, díky za radu.
Já ovšem hledám spíše někoho, kdo mi toto vše zařídí než poradí.

13
Ten traffic bude minimální.
Jedná se o MQTT traffic pouze, kde můžeme mluvit třeba o 1 requestu za 1 sekundu mezi touto pobočkou a AWS.
K VPN budou připojeni maximálně 2 klienti.
Redundantní nemusí být nic. Rack mount momentálně netuším, ale myslím, že nebude třeba.
VPN klienty bych udělal klasicky přes nějaké certifikáty a user/password? Mám zkušenosti jen s OpenVPN a tam to řešíme takto. Počítám s tím, že další uživatel se bude muset přidávat manuálně třeba v UI mikrotiku.
Ohledně S2S VPN do AWS ještě netuším, jestli chceme používat to jejich řešení - musím se kouknout, kolik to bude stát peněz, takže je tu varianta ještě použít nějaký docker container na to.

15
Zdravím,
potřeboval bych na jednom místě nastavit router - asi ideálně Mikrotik, který bude mít otevřené porty jen pro VPN a také celkově nějak standardně zabezpečený.
Ohledně VPN - potřebujeme VPN server, ke kterému se budou připojovat klienti a poté také Site2Site VPN, která bude připojená do AWS VPC - připojení ze strany AWS budu řešit já, ale je třeba zkonzultovat možnosti.
Díky.

Stran: [1] 2 3 ... 16