1
Bazar / Re:Věnuji RPi 5 16GB na opravu
« Poslední příspěvek od Wasper kdy Dnes v 18:41:00 »Nechápu tyto směšné argumenty proti EU,To ani metalurgii...
Nechápu tyto směšné argumenty proti EU,To ani metalurgii...
velikost je těsně pod 6,5TB, a zabírá to 1,7.Me deduplikace (kvuli hratkam s AI) donutila prejit na btrfs, tam to taky funguje velmi hezky - 3.2TB na 2TB disku (coz nevypada nejak uzasne, ale s ohledem na to, ze jsou to desitky pythonich venvu tak to pomohlo fakt dost) https://zygo.github.io/bees/
Byl tu kdysi jeden komiks, který mi tohle připomnělo
https://www.root.cz/clanky/komiks-rande-s-intelektualem/
(nemohl jsem odolat ;-)
Mojí motivací mít takovou sbírku všech možných vypálených linuxů bylo (opakuji BYLO!) připravit se na válku, alespoň takovýmto způsobem. Dnes věřím, že válka tady u nás v Čechách nebude a ani na Slovensku. Ale kdo ví, komu rupne v bedně a nechá z nějakého debilního důvodu zlikvidovat civilní síť počítačů.
je jako debil si otevřít libovolnou stránku, třeba reclaimthenet.org a libovolný link otevřít Přes Prozkoumat, a změnit mu HREF=/about na HREF=//youtube.com/embed/vid123eo A KLIKNOUT.Ano, updaty jsou jedna z mnoha věcí, na které jste zapomněl.
Jenže jste to nijak nedokázal. Navíc se vaše teorie rozchází s realitou, kdy v době, kdy se začalo projevovat, že IPv4 adresy došly, se začal adresní prostor IPv4 rychleji fragmentovat – a některé páteřní routery v té době nebyly schopné pojmout takovou routovací tabulku, jakou by měly mít, protože se prostě do jejich paměti nevešla.
Každopádně i kdyby se dnes použily všechny IPv4 adresy, problém jejich nedostatku by to nevyřešilo. No a routovací tabulku po jednotlivých záznamech pro IPv6 tu snad nebude obhajovat nikdo, protože exabajtové paměti pro uložení 2×1018 záznamů se dnes stále shání docela špatně.
Já se přidávám s žádostí o experiment, zkomprimovat binární kopie těchto disků a zjistit kompresní poměr. existuje nějaký kompresní systém, který dokáže v datech najít komprimovaná data a cimrmanovsky je dekomprimovat aby je pak následně opět all-inclusive všechny zkomprimoval a ? něco jako deduplikace a komprese na všechno - účelem by bylo ještě víc srazit velikost komprimovaných dat. A by to sedělo bit na bit.
