Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - RDa

Stran: 1 ... 78 79 [80] 81 82 ... 153
1186
Ad "bezne ukony" - kdyz mas DT precision nastavenej jinej nez sekundu (cca enum rok/mesic/den/hodina/minuta/sekunda/ms/us/ns), tak tva trida konverti na string (napr. dle ISO) jako kratsi, nebo s 00, nebo se zastupnym znakem? :)

(tohle je jeden z duvodu pro me mit vlastni tridu na cas - aby sla definovat presnost)

Btw C++ neumi nic mezi private a public? Ja jedu tedy PHP a tam mame "protected", coz je pristupno pro blizke tridy, ale ne pro externi kod.

1187
Sítě / Re:Divná smyčka v GSM
« kdy: 24. 12. 2020, 21:05:35 »
Koukam ze nejsem jedinej:
https://www.zive.cz/poradna/odposlech-telefonu/sc-20-cq-646194/default.aspx?consultanswers=1

Chovalo se to zcela identicky, ale mam Samsung Note 4.

1188
Sítě / Divná smyčka v GSM
« kdy: 24. 12. 2020, 21:00:45 »
Ahoj, volal jsem nasim na Slovensko a po 8-9 minutach hovoru slysim zcela to same, co me mati rikala na pocatku hovoru - proste to jelo ze zaznamu odznova. Mam Vodafone, operatora vzdalene strany netusim.

Dokaze nekdo kdo pracuje u operatora / nebo s GSM / vysvetlit duvod tohoto jevu?

Je mozne, ze me nesikovne odposlouchavaj, protoze jsem rekl nejaka klicova slova?

1189
Sítě / Re:Přes Wi-Fi 6 kopíruju jen 220 MB/s
« kdy: 23. 12. 2020, 14:01:19 »
A kolik má vaše zařízení (ne wifi router) antén ?

https://en.wikipedia.org/wiki/IEEE_802.11ax

Jedna anténa (stream) při 1024QAM a kanálu 160 MHz dá 1201 Mbps. Tedy pro 4,8 Gbps potřebujete 4 antény, což ten ASUS RT-AX86U má, ale potřebujete je i na druhé straně. Má váš notebook (?) 4 antény ?

V tom odkazovanem clanku je AX200, letmym googlenim je M2 karta s dvouma u.FL, coz by odpovidalo pak zlinkovane rychlosti 2400 Mbit jak je i v clanku.

1190
Sítě / Re:Přes Wi-Fi 6 kopíruju jen 220 MB/s
« kdy: 23. 12. 2020, 13:51:51 »
Vzdyt to ma jen 2.5GbE, takze vice to mezi wired-wireless neda.
V pripade wifi-wifi to zas bude sdilet pasmo a soucet dvou 2.4G klientu ta 4.8G totalku.

Navic si myslim, ze to je podobny jako u predchozich generaci - AP ma masivni MIMO, zatimco bezni klienti toho nedosahuji, at uz kvuli poctu anten, nebo pouzivanim nizsich urovni kodovani kvuli spotrebe.

1191
Sítě / Re:100 Mbit, 1GBit, 10 GBit, 40 GBit k čemu vlastně?
« kdy: 18. 12. 2020, 15:52:13 »
Šíření datového toku videa přes internet(IPTV) pro všechny, stávající celoplanetární infrastruktura nedokáže. Dle výhledu se s vyšší rozlišení než 8K zjevně nepočítá, neboť lidské oko to skoro nepozná( stejně jako rozdíl mezi barevným spektrem 24bit vs 32bit ). Je pravděpodobně, že za 10-20 let i to 8K video přes nemovitost poletí stejně vzduchem. Takže asi tak.

A vite ze mezi 24-bit a 32-bit neni zadny rozdil? Jedna se jen o reprezentaci v pameti, kvuli jednodussimu adresovani - tech 8 bitu nenese pro zakladni obrazek zadnou informaci a jsou tam jenom jako vata :)) Pak se tech extra 8-bit zacalo pouzivat na pruhlednost - alfakanal.

Nejspis jste mysleli rozdil mezi 24-bit a 30-bit, resp. v znamejsim pojeti jako 8-bit vs 10-bit video. A vezte, ze pro material, ktere budete chtit upravy, je tech +2 bitu (tj. 3 mezi-tony navic) znatelny prinos, hlavne kdyz je video HDR v nejake nestandardni gama krivce (log-formatu).

1192
K čomu je nutný v 2. tisícročí protokol NT1? SMB2 ovládajú aj veľmi staré stroje a to minimálne 20 rokov. Napadá ma jedine zdielanie bez hesla. Všade mám min protokol SMB2 a všetko fuguje bez problémov.

Kdyz provozujete WinXP, tak potrebujete SMB1. Zatim jsem jel mixovane nasazeni XP+W7, vuci linux file serveru, takze to uz chtelo trocha potunit smb.conf (ale stejny potize maji spravci windows based serveru). A kdyz o svatcich konecne nainstaluji W10, tak bude potreba provozovat vsechny tri protokoly zaroven:

SMB1: pro XP, s omezenou "bezpecnosti" (kdyz to mam na vlastni LAN, resp. vevnitr VM.. tak me to jiste nekdo napadne)
SMB2: pro W7, protoze tam nelze dostat smb3
SMB3: pro W10, protoze bych rad ziskal vyhodu multi-path

Takze me celkem stvou ty tendence "vsechno stary urezat/odstranit". To opravdu neni spravna cesta, nekdy je holt nutny provozovat i horsi varianty.

1193
Hardware / Re:Zapojení sluchátek s iterním mikrofonem
« kdy: 18. 12. 2020, 11:28:06 »
Kdyby vam ty 4-piny nefungovali - at uz v zarizeni nebo skrze redukci, tak vezte ze existuji 2 vzajemne nekompatibilni systemy zapojeni :)

1194
Vývoj / Re:Vlastní SSD caching pro klasické FS
« kdy: 16. 12. 2020, 20:36:30 »
IMHO by se to vyplatilo jedině při detailní znalosti aplikčaních dat, ty ale zná jedině aplikace sama. Také některé aplikace řeší cachování ve své režii. Například ty video editory. To je další kandidát na analýzu.

Proto cilim primarne na akceleraci ext4, protoze je znamy format dat.

IMHO pro obecné použití je bcache dobrá volba a nic lepšího obecného nevymyslíte.

Neni. bcache (i lvmcache) na cteci ceste profiluje live pristupy, nedokaze pred-nacitat systemove oblasti filesystemu (nebo zajimave casti souboru).

Pro zapis (pokud tedy to SSD bude v slusnem raidu a neodejde), s delayed write ale obe reseni by fungovali, takze jedno z toho se jiste pro reseni zapisu nasadi zaroven s mym resenim.

Pokud by bcache melo API, kde muzu rict, ktere bloky se maj pripnout do cache a nikdy nevyhodit, tak by to bylo ovsem idealni - pak staci udelat uz jen tu userspace aplikaci, ktera spocita ktere bloky stoji za cachovani. Ale porad je tam opruz s tim, ze se musi bcache device vytvaret specificky uz s tim zamerem, takze je to takove.. neprakticke.

1195
Vývoj / Re:Vlastní SSD caching pro klasické FS
« kdy: 16. 12. 2020, 16:05:20 »
Ale abych nebyl jen negativní, zmínil jste něco jako "děravý raid-1 s prioritou". Když už se do něčeho takového pouštět, pak by mi přišlo, že toto je cesta k rychlému cíli. Mapa, která v prvním kroku určí, které bloky jsou zrcadlené a určí blok na úložišti (SSD bude menší než HDD, takže se to musí namapovat). Najde blok v mapě? Pak v případě čtení brát ze SSD, v případě zápisu zapisovat do SSD a zpožděně na HDD. Fajn, to by jít mělo. Jak velká taková mapa bude a jak rychle se v ní bude hledat? Kolik RAM a cyklů to sežere? Bude to po blocích, nebo po nějakých větších či dynamicky určených jednotkách a na bloky se to převede až v konečné fázi? Myslím, že od této úvahy byste mohl začít, protože to se dá spočítat na papíře dřív, než začnete.

Ale tohle je prave to jadro meho pudla!
(a zbytek chytrosti je jenom runtime uprava "tvaru sita" / bitmapy)

Urychli to veskere lookupy na uroven vykonu SSD, vyhledani v nespojite mape nevidim jako kriticky bod.

Myslim ze vetsinovy use-case genrickeho uloziste je read-intensive pouziti, ti co potrebuji tocit TB objemy v read/write rezimu maji davno SSD-only reseni. Pro bezneho uzivatele, ktery data vytvari jednou a pak jenom pouziva, nedava reseni zalozene ciste na SSD smysl.

Vyber EXT4 (nebo jinych EXT) je vyhoda - struktura je dobre zdokumentovana, a inode tabulky jsou vzdy na stejnych lokacich. To se da oznacit rovnou podle hlavicek fileystemu. Druha uroven dat jsou dir_entry, soubory s obsahem adresare. Ty jsou jiz nahodne rozhazene po disku, stejne jako neprime indexy pro tabulky bloku (ext3) nebo extents (ext4). Tim ze jsem ext4 reader jiz jednou implementoval podle popisu struktur, v tom nevidim buhvijaky problem.

Ohledne mapy: pokud se vezme naivne mapovani 16TB na 16TB prostoru (4G x 4K bloky), tak to mate linearni tabulku citajici 16GB (4G x 32bit), s lookupem trvajici jedno nahodne cteni RAM adresy. Ale tim, ze ten SSD overlay bude hodne sparse, tak lze tuhle vyhledavaci mapu pojmout v podobe "pagetables" - hierarchie, nebo jine stromove / hashovane struktury, resp. indexovane extents seznamy, optimalni na vyhledani 32bit polozky (16T ssd) na zaklade cca 40bit+ indexu (4 PB hdd). Na tohle si myslim existuje jiz slusne overena implementace (ostatne SSD to dela take, s mnohem mensimi zdroji, nez mate k dipozici na PC).

Pokud bych chtel byt linej, tak to rovnou muzu udelat jako sparse soubor na tom SSD a nechat sparsovanost resit skrze hotovy filesystem, ale nevim jak moc na tom je podpora zatazena do userspace, abych dokazal urcit zda je blok alokovan, ci nikoliv.

1196
Vývoj / Re:Vlastní SSD caching pro klasické FS
« kdy: 16. 12. 2020, 12:41:20 »
Pres userspace to bude pekelne pomale, reseni typu ze se udela nejaky iscsi target ktery to bude "nejak resit" je myslim spatna cesta.

Na dnesnim hw to tak marny neni - treba ddrescue jede blocksize defaultne 512B - na rychlem poli to cetlo podivne kolem 500MB/s, coz je limit dany user/kernel kontext switchem a kopirovanim dat - cca 1M switchu na mem hw. Pri zvyseni block size neni problem dosahovat 2GB/s, ale to uz to omezovali disky. Nez jsem na to prisel, ze to ma takovy block size by default chvili trvalo :-)

Ale nebranim se, aby to rozhodovaci jadro bylo v kernelu, jen to neni jednoduchy na pocatecni vyvoj.

Proc SSD, proc to necachovat v SDRAM ? Odber? Cena?

Zas tolik pameti nemam / nechci obetovat.

V RAM bude lookup strom/bitmapa s referencema na to, co je kam odcachovane, to jo, ale samotne datove bloky radeji tedy perzistentne v SSD. Jak predpokladam cachovani zajimavych casti souboru, tak se nebavime jen o pristupovych strukturach, ale i o nekterych datech, takze se nekolik set GB v ssd/nvme typu Optane se na tohle hodi zcela idealne.

Zajimalo by mne, jak mate nacenen vyvoj/administraci takoveho reseni oproti full-ssd poli.

Pokud se prokaze ze treba ty Optane disky se hodi prave na tohle.. nemel by byt problem najit sponzora k vyvoji.

Provozne to neni tak kriticky prvek, jak napr. bcache, bez ktereho nejste schopni namountovat disk, protoze obsahuje modifikace nad ramec toho nizsiho uloziste. Ja resim hlavne zrychleni cteni, tim, ze informovane vim ktere bloky za to stoji drzet v cache.

1197
Vývoj / Re:Vlastní SSD caching pro klasické FS
« kdy: 16. 12. 2020, 12:27:32 »
To neresi zrychleni nahodneho pristupu od nepredikovatelneho uzivatele, ktery prochazi sve uloziste. Vlastne to prochazeni se snazim zrychlit - at uz proto, ze se na to diva clovek netrpelivy, nebo proto, ze chci zkopirovat milion souboru. Bohuzel pri poslednim kopirovani 40TB dat jsem zjistil, jak je to naprd, kdyz hlavicky litaj sem a tam.. protoze pristupujete k datum, ktere nebyly profilovany.

Toto stojí za rozebrání, abychom věděl, že hovoříme o tom samém.
Načtení velkého adresáře trvá dlouho, ale ne vždy za to může filesystem.

1. Je potřeba zkusit ls s parametry, které ho nezdrží. Např. barevný výpis dělá stat na každém souboru. Spoustu času zabere i třídění - takže je potřeba dostat data nejprve unsorted. Je mi jasné, že toto neposune vpřed onoho "nepredikovatelného" uživatele, ale je potřeba vědět, jaký problém ve skutečnosti řešíte.
2. Zkoušel jste na ext4 vobu dir_index?

Chci eliminovat vsechny seeky rotacnich disku, do doby, nez se bude pristupovat k opravdovym datum souboru.
Pro pristup k adresari potrebujete 2 seeky pro kazdou uroven pod-adresaru (cteni directory entry a cteni inode tabulky).

Vypnuti barvicek, trideni, nebo treba locate index, neni to, jak si predstavuji zrychleni prace s FS - spis naopak, chci dosahnout stavu, ze i s temi barvickama a fstat na kazdy souboru, se to provede stejne rychle, jako kdybych pracoval se SSD. fstat nepristupuje k datum souboru, ale jen k inode table, a ano - nez se to natahne, tak to udela zcela zbytecne hromadu seeku.

Resim tedy problem zbytecnych seeku pro lookup metadat. Ackoliv EXT je neco jako distribuovana FAT-ka, takze nemusi sahat vzdy az na kraj disku, tak je tam porad hromada kmitani - v pripade rekurzivniho cteni se delaj 3 seeky pro kazdej soubor, v pripade SSD cache/overlay pro metadata, lze mit pristup na soubor skrze 1 primy seek.

Prakticky tedy tak, aby to byl "sparse mirror" (deravej RAID-1) mezi SSD a HDD, s preferencnim ctenim SSD, kdy to SSD pozadovana data obsahuje (podle bitmapy nebo stromu), s moznosti uzivatelskeho rizeni (editaci bitmapy), co se ma/nema drzet v SSD.

Konkretni ukazka na hdd poli s 29.75M inodama, kdy by na disk nebylo vubec potreba sahnout - vse potrebne by totiz melo byt v te SSD cache:
Kód: [Vybrat]
df -i
IUsed: 29750446

/mnt/files # date; find /mnt/files/ -type d | wc -l; date
Wed Dec 16 10:46:24 AM CET 2020
2664789
Wed Dec 16 12:19:02 PM CET 2020
To nam dela 92m38s = 5558 sec runtime, a fstat s rychlosti 5353 inode/sec.

Pouzita cast inode table dela 3.8 GB (z 62GB moznych) + pro kazdy adresar mame minimalne 4K blok na direntries. Celkove se muselo nacist v nahodnem poradi minimalne 930K inode a  2664K dent bloku. Prenosy na poli jsem videl kolem 1 az 4 MB/s - protoze je to omezeno seekovanim, pocitaje tyto 4K bloky, tak to dela 646 iops/sec (je to R6, 8+2 disky).

slabtop kdyby nekoho zajimalo:
Kód: [Vybrat]
  OBJS ACTIVE  USE OBJ SIZE  SLABS OBJ/SLAB CACHE SIZE NAME
3022776 3022770  99%    1.00K 755694        4   3022776K ext4_inode_cache
2499420 2491156  99%    0.19K 119020       21    476080K dentry
3100266 2966827  95%    0.10K  79494       39    317976K buffer_head
322091 322072  99%    0.56K  46013        7    184052K radix_tree_node
 32914  32914 100%    3.27K  16457        2    131656K raid6-md3
600796 600778  99%    0.14K  21457       28     85828K ext4_groupinfo_4k
468864 352110  75%    0.04K   4736       99     18944K ext4_extent_status
 13286  12690  95%    0.55K   1898        7      7592K inode_cache

Spusteni prikazu samozrejme zacne cist disk znova, protoze v ext4_inode_cache nejsou podrzeny vsechny.. (nemam to ted potunene, pac predesla zkusenost byla, ze dochazela pamet).

Nektere tyto SLAB-y jdou nastavit aby se udrzeli v pameti dele ci vetsi, ale neresi to nahodny pristup po zapnuti - inicializaci nelze provest jinak, nez normalnim ctenim struktury a tudiz nahodnymi pristupy na disk coz trva. A neresi to vubec moznost cachovatelnosti konkretne oznacenych souborovych dat.

Pro srovnani, na ext4 SSD s 1.17M inodama:
Kód: [Vybrat]
# date ; find . -type d | wc -l ; date
Wed Dec 16 12:04:12 PM CET 2020
71649
Wed Dec 16 12:04:34 PM CET 2020
zde tedy fstat jede s rychlosti 53393 inode/sec

Aplikacne specificke pouziti:

Mate treba cDNG videa - 100K souboru v adresari pro kazdej klip, kdyz zanedbame overhead pro samotny adresar, tak v pripade spusteni prehravani (v editoru/barvicim sw), zacne disk kmitat mezi inode table, pripadnou indirect tabulkou a daty souboru. V pripade cachovani vsech urovni pristupovych metadat v SSD, by disk cetl jen video framy.

A ne-posledni ucel: kvuli hromade souboru, ktere se pak povaluji po celem disku, bych rad nektere data sbalil do vnoreneho FS (at uz iso/udf, nebo ext4 image) - treba proto, abych celou vec mohl rychleji - tj. linearnim ctenim - presnutou jinam. A tohle se tim userspace demonem da taky rozparsovat - a pro tyto vnorene FS image nechat nacachovat jejich pristupove udaje.

1198
Vývoj / Re:Vlastní SSD caching pro klasické FS
« kdy: 16. 12. 2020, 00:34:41 »
jaký máš use case pro takovouhle věc? Nestačí ti něco jako vmtouch (https://hoytech.com/vmtouch/)?

Jak tady někteří říkali, ext4 se používá pro jednoduchost, přímočarost a stabilitu, dodělávat tam takovéhle věci můžeš velice rychle se rozloužit se stabilitu. Jak třeba budeš řešit konzistenci, při loadu načteš vše do ssh cache? Co hotswap?

To neresi zrychleni nahodneho pristupu od nepredikovatelneho uzivatele, ktery prochazi sve uloziste. Vlastne to prochazeni se snazim zrychlit - at uz proto, ze se na to diva clovek netrpelivy, nebo proto, ze chci zkopirovat milion souboru. Bohuzel pri poslednim kopirovani 40TB dat jsem zjistil, jak je to naprd, kdyz hlavicky litaj sem a tam.. protoze pristupujete k datum, ktere nebyly profilovany.

Konzistence lze resit tim, ze se cache invaliduje, pokud je superblock mount time jinej nez cachi-znamej. Pak staci natahnout data podle sparse bitmapy znova - vi se co se ma cachovat, jen si nejsme jisti obsahem. Proto to taky resim jako RO path cache a nechci do toho motat zapisy.

1199
Vývoj / Re:Vlastní SSD caching pro klasické FS
« kdy: 15. 12. 2020, 20:24:41 »
Nedokaze bcache v principe to iste?
Zober si to tak - ked k hlavickam alebo thumbnailom DNG pristupujes castejsie ako k zbytku suboru, tak v cachi zostane co chces. Cele to vyzaduje ovela menej logiky a teda tam bude menej bugov. Parsovanie lubovolnych suborov v kerneli si pyta velku nestabilitu, ved kolko zranitelnosti existuje v existujucich programoch, kde sa programatori vo formatoch vyznaju.
Ked pristupujes vzdy k celemu suboru, tak nema vyznam robit cache hlaviciek.

bcache to nedokaze udelat predem (resp. nevim o tom jak tomu expliticne ridit seznam bloku) - jenom profiluje uzivatele. To bys musel v cron-u poustet skript, ktery by cetl ty hot data, a takova neprima metoda predavani informaci o tom, co chces cachovat, je to, co nechci a  resim - aby se jasne reklo - TOHLE chci. Samozrejme se nebranim tomu, ze to bude cachovat vic nez je treba, ale resim to minimum, co v cache MUSI byt.

Nechci to parsovani resit v kernelu, proto ten pristup pres inotify helper. Do jadra cache se jen predaji cisla bloku, ktere se maji vzdy cachovat, a v pripade nutnosti vyssiho vykonu / nizsi spotreby se tohle jadro muze presunout do kernelu.

bcache muze resit tu zapisovou cache, pro kterou bylo primarne vyvinuto - ze na SSD se ukladaj vsechny zmeny, ktere se pomalu odsypaj na disk, to jo, tam to smysl ma. Ja resim nutnost cteni cehokoliv - a okamzite z cache - zadne profilovani chovani uzivatele. Snooping obsahu je neco jineho a to bcache neumi.

1200
Vývoj / Re:Vlastní SSD caching pro klasické FS
« kdy: 15. 12. 2020, 19:50:38 »
Pokud vycházíme z premisy, že spousta lidí preferuje tradiční filesystémy (důvody jste vyjmenoval), pak by taková cache musela fungovat zcela autonomně a transparentně z pohledu uživatele a admina (vyjma prvotního nastavení a nějakému občasnému poladění). Jenže v pojetí, které jste následně popsal, by taková cache potřebovala spoustu parametrů, aby byla účinná ke konkrétnímu účelu. Tedy takové oscilování mezi cíly "nevím o tom" a "mám to vyladěné".

Tady to berte jako opak TRIM-u, namisto uvolneni prostoru, by se prostor oznacoval za dulezity - at uz pro casti souboru nebo pak cele podadresare, takze by se tato oblast zapinovala do cache. Tohle neumi zadny existujici cachovaci system.

Samozrejme k tomuto je potreba uzivatelska intervence - jak ve volbe toho co chcete zapichnout, nebo toho, jakym typum souborum to ma rozumet - jiste je jiny pristup u programatora, ktery voli "cache all *.c", a jiny u fotografa, ktery chce rychle thumbnaily z raw-u.

(u BTRFS taky nastavujete COW a noCOW na adresare.. tady si nastavite cache co a kde, a kde nikoliv)

Stran: 1 ... 78 79 [80] 81 82 ... 153