Poslední příspěvky

Stran: [1] 2 3 ... 10
1
Hardware / Re:Raspberry Pi 5 nechce pripojiť disk
« Poslední příspěvek od Jan Fikar kdy Dnes v 14:34:09 »
Ten príkaz som napísal, v terminalí mi napísalo že zadávam zlý príkaz.

no protože se to musí opravit ve Windows. Dával jste ten příkaz v termináli Windows?

Ono sice existuje ntfsrepair v Linuxu, ale z vlastní zkušenosti radím, že se má disk připojit do Windows a tam opravit. Pokud teda nechcete přijít o data.

A pokud bude používaný jen v Linuxu, tak bych ho naformátoval na souborový systém, který Linux umí opravit, třebas ext4, xfs, ...
2
Sítě / Re:Router na cesty
« Poslední příspěvek od Marek Staněk kdy Dnes v 14:24:34 »
Chápu to správně, že jde o něco jako Wi-Fi repeater?

Ne. Požadavek je router, který umí jako WAN rozhraní použít jedno z wifi rozhraní, tedy v režimu klient.
Toto rozhraní se připojí k hotelové síti na jejím SSID, eventuálně pokud do pokoje vede ethernet, se použije WANové RJčko.
Na LAN straně pak zůstanou LANporty a druhý wifi adaptér s "domácím" SSID, takže mezi hotelovou sítí a vlastními telefony / noťasem zůstává aktivní NAT a firewall, a hotel tak vidí jen jednu IP a jen jednu MAC.
Ideálně si ten router rovnou sestaví VPNku domů a tou routuje veškerý provoz ze své LAN, takže hotelovou sítí protéká jen jedno zašifrované spojení, ze kterého hotel nebo jiný uživatel jeho sítě nedokáže zjistit kromě IP domovské VPN gatewaye vůbec nic, protože ten router otevřeným provozem nic dalšího nepošle.
3
Sítě / Re:Router na cesty
« Poslední příspěvek od honzako kdy Dnes v 14:21:50 »
4
Server / Re:Zvažuji přechod z Linuxu na FreeBSD
« Poslední příspěvek od xsouku04 kdy Dnes v 13:57:29 »
Prosím jak mohu zjistit nastavení UFS ?  Např. u odolnosti proti výpadkům elektřiny se to hodně liší, podle toho jaké žurnálování je zapnuté. Ale nevím jak to zjistit. Často se píše že  UFS SU+J, bylo fuj, ale dost možná je to hlavně v bug v jedné verzi freebsd, což už bylo dávno opraveno.  Někdo jiný si zase pochvaluje jiný typ journalování, ale nikdo jsem se o tom nenačetl nějaké shrnutí.

A pokud nepoužijí journálování vůbec, mělo by to znamenat, že oprava po výpadku bude trvat déle - musí projít vše, ale nekonzistence by nastat neměla a mělo by to být spolehlivější než oprava na pozadí s journalováním. Také je trochu lepší výkon.

Pokud jednou za deset let vypnout proud. Počítám s tím, že budu opravovat ručně a déle, ale nechtěl bych aby z dat byla fašírka. Pokud se několik posledních záznamů neuloží vůbec nevadí, ale nemělo by se poškodit nic předešlého.

tunefs -p /dev/device nebo tunefs -p /mountpoint

LolPhirae má pravdu v tom, že téměř žádný z těch režimů UFS (bez ničeho), UFS SU, UFS SU+J není tak odolný proti náhlým výpadkům hw nebo napájení jako třeba ext4 nebo ZFS.
Nejbezpečnější varianta z tohohle hlediska je UFS bez dalších povolených fíčur.
SU vzniklo kdysi primárně kvůli dvěma věcem - zrychlení metadatových operací s inody a rychlejší fsck, kdy to nekontroluje všechno. Ty metadatové operace se zrychlí proto, že se při zápisu dělá fs reordering a sdružuje je a řeší jejich závislosti. Hlavně na  točivých discích s dlouhou příst. dobou to přineslo razantní zrychlení při operacích s mnoha soubory v rozsáhlejších adr. strukturách a zvýšení propustnosti při přístupu z více procesů.
Nevýhodou je pak to, že se to proti normálnímu orderingu v UFS ty operace zpožďují (klidně i desítky vteřin) a při náhlém výpadku to může ovlivnit hodně souborů, do kterých se zapisovalo.
SU+J je přidání fixního 16MB žurnálu pro metadatové operace (tváří se jako soubor .sujournal v rootu), který hlavně dál zrychluje kontrolu a opravu na větších úložištích.
Bohužel se může stát, když se správně trefíte (aspoň když jsem to před pár lety testoval), že zatímco s UFS máte zasažených pár posledních souborů, co se nedopsaly. S UFS SU je jich razantně víc a u SU+J jich značná část skončí úplně prázdných, což pravděpodobně souvisí s tím, že to fsck rychle vymete a ihned uvolní data.
Takže, jestli si pro váš workload řeknete, že nevadí delší fsck, a případný pokles výkonu nebude zásadní, tak vypněte SU (tunefs -n disable /dev/neco).
Ještě je tam další režim, geom journal. A to je ještě něco jiného, to udělá v podstatě virtuální zařízení (jako dm v Linuxu), kde se pak prování žurnálování na úrovni bloků. Filesystém je nad tím, všechny zápisy jdou přes žurnál.
Vždycky mi to přišlo jako hack, co ten primární problém moc neřeší.

Nicméně, jestli si to pamatuju dobře, tak s LolPhirae jsme o tomhle přesně mluvili. A já jsem trochu oponoval tím, že se sice je to dost blbé (a bylo by fajn, aby i FreeBSD mělo robustní ne-COW systém), ale prakticky vzato jsem žádné tragédie i po výpadcích s SU, kdy bych se z toho nedostal, něměl. Část toho je pravděpodobně klika, část je daná tím, že také hodně závisí na konkrétní aplikaci, jak přesně zapisuje. Jestli používá standardně page cache, nebo O_DIRECT příp O_SYNC. Jestli třeba sama nepoužívá fsync() nebo "jen" fdatasync() atp.
Když tam byla nějaká data, co jsem chtěl mít celá (třeba logy nebo malou db), tak jsem měl mountpoint s vynuceným syncem, což je samozřejmě trochu extrém, protože daň za to pak je, že je to líné jak vandrácká hůl.

Upřímně, za posledních pár let jsem na FreeBSD téměř vždy používal jen ZFS. To, že je součástí systému a plně integrované, mi přišlo jedna z mála výhod, které to má oproti Linuxu, a byl to také hlavní důvod nasazení FreeBSD jako takového.
A také si odhaduji, že to tak má většina uživatelů, což je možná důvod, proč UFS a řešení těch problémů nevypadá jak nějaká extra priorita.

Jinak vcelku extenzivní test ohledně odolnosti je třeba tady:
https://unixdigest.com/articles/battle-testing-php-fopen-sqlite-postgresql-and-mariadb-on-ffs-ufs-ext-xfs-and-zfs.html

Já si pár let zpět dělal něco podobného, byť jen se simulovanými pády QEMU virtuálu s FreeBSD, OpenBSD a Linuxem. Používal jsem dd, případně něco, co jsem si narychlo spácal na testy. Ve smyčce to zapisovalo a modifikovalo soubory, věděl jsem kontrolní součty, takže jsem po opravě fs byl schopen rychle kontrolovat, jak to dopadlo. Zkoušel jsem různé variace přístupů, syncování. Dopadlo to víceméně stejně, jako v linkovaném článku.
Můj závěr byl, že v Linuxu to není třeba extra řešit, na FreeBSD pak ZFS. UFS bez SU jako bezpečnější volba, pokud nějakého důvodu nemůžu, nechci COW. OpenBSD strašně líné, neškláluje se, ale je konzistentní.
Moc děkuji za perfektní rozsáhlé vysvětlení.
Kód: [Vybrat]
tunefs -p /dev/ada0p1
tunefs: POSIX.1e ACLs: (-a)                                disabled
tunefs: NFSv4 ACLs: (-N)                                   disabled
tunefs: MAC multilabel: (-l)                               disabled
tunefs: soft updates: (-n)                                 enabled
tunefs: soft update journaling: (-j)                       disabled
tunefs: gjournal: (-J)                                     disabled
tunefs: trim: (-t)                                         disabled
tunefs: maximum blocks per file in a cylinder group: (-e)  4096
tunefs: average file size: (-f)                            16384
tunefs: average number of files in a directory: (-s)       64
tunefs: minimum percentage of free space: (-m)             8%
tunefs: space to hold for metadata blocks: (-k)            6400
tunefs: optimization preference: (-o)                      time

Takže zbývá případně vypnut SU - soft updates. A možná mohu povolit trim.

Nevím proč, ale mariadb na freebsd a UFS dovede klonovat hlavní databázi cca tak 100 krát rychleji, než na Linuxu.
Když klonování zastavím na 10 minut a pak opět pustím , za jednu vteřinu na freeBSD dožene 100- 150 vteřin. Na Linuxu (ext4 na LVM) tak 1-2 vteřiny a je to dost proměnlivé a občas to klonovat prostě vůbec nestíhá.  Nějak se zasekává zpracovávání logu s sql příkazy co se mají provést. Databáze se fláká, ale přitom nestíhá klonovat.

Vyzkouším ještě jak to stejné  funguje na FreeBSD pokud použiji pro databázi ZFS.  Tam byl na Linuxu se ZFS kromě mizerného výkonu hlavně neskutečné velké zápisy na disky, že by životnost lepšího SSD disku měla být vypotřebována cca za rok. Prostě obrovská write amplifikation, které se nešlo zbavit, experimentování s nastavováním sshift a blocksize pomáhalo jen pramálo. Prostě to pro databázi z hodně zápisy a updaty nedělalo dobrotu. Možná je problém se zarovnáním ZFS na fyzické bloky na disku nebo něco takového.

Vyzkouším to FreeBSD a dám vědět.
5
Server / Re:Zvažuji přechod z Linuxu na FreeBSD
« Poslední příspěvek od Tom5 kdy Dnes v 13:54:35 »
Jinak vcelku extenzivní test ohledně odolnosti je třeba tady:
https://unixdigest.com/articles/battle-testing-php-fopen-sqlite-postgresql-and-mariadb-on-ffs-ufs-ext-xfs-and-zfs.html

Můj závěr byl, že v Linuxu to není třeba extra řešit, na FreeBSD pak ZFS. UFS bez SU jako bezpečnější volba, pokud nějakého důvodu nemůžu, nechci COW. OpenBSD strašně líné, neškláluje se, ale je konzistentní.

To je hodně zajímavé. Provozoval jsem jeden čas mongo na ext4 na dvou nezávislých strojích a bylo to v jedné konkrétní aplikaci naprosto nepoužitelné. Neustále se to rozsypávalo. Každý měsíc se musela DB restorovat (na druhém stroji to bylo tak jednou za 2 měsíce). Přechod na XFS to zcela vyřešil. Pozdější migrace na FreeBSD/UFS+SU neměla nikdy (je to tak 1,5 roku) problém.

Pravda, je to trochu jiný případ. Nešlo o HW fail, ale o rozsypání dat na běžících strojích. Tím hůř pro ext4. Trochu jsem naivně doufal v nějaký posun od dob ext2, ale tímhle u mne na Linux strojích s DB workloadem definitivně skončil.
6
Sítě / Re:Router na cesty
« Poslední příspěvek od Vít Šesták (v6ak) kdy Dnes v 13:17:22 »
Já to řešil asi před měsícem, a myslím, že RouterOS umožňoval mít AP v obou režimech (aspoň to tak vypadalo podle toho, co jsem našel), ale naznal jsem, že mi ani jedna z těch variant nevyhovuje.

Připojení přes telefon na konfiguraci – klidně by takto mělo jít připojit i jiné zařízení, jako notebook.

Tuším, že některé Mikrotiky mají možnost po stisku tlačítka vykonat skript. Potom by ten skript mohl přehodit nastavení tak, aby se k routeru šlo připojit přes Wi-Fi a nastavit zdrojovou síť. Ale stále, pokud obojí pojede na stejné frekvenci, jsou s tím zmíněná omezení.
7
Hardware / Re:Raspberry Pi 5 nechce pripojiť disk
« Poslední příspěvek od marder kdy Dnes v 12:53:14 »
Můžeš si také nainstalovat gnome-disk-utility anebo gparted a zkusit opravit partition v něm.
8
Bazar / Re:Koupím APC sériový kabel (RJ12-DB9)
« Poslední příspěvek od František Ryšánek kdy Dnes v 12:44:16 »
Jednak gratulace k té první kartě, není zač, chytrému napověz, a měl jste kliku, to se taky počítá :-)

Někde ve fórech jsem zahlédl podrobnější postup toho resetu hesla. Údajně jsou dvě varianty:
1)
- stisknete za jízdy tlačítko reset, rozblikají se střídavě nějaké LEDky
- jakmile blikají, musíte tlačítko reset stisknout *znovu*, a LEDky přestanou blikat - teprve poté se login/heslo resetuje na default apc/apc
- reset platí jenom 30 sekund (někdo říká 15 sekund), pak se vrátí na adminem upravenou hodnotu.

No a varianta 2) je, že ten druhý stisk už není potřeba. Údajně v novějším firmwaru. Ale těch 30s (15s) platí.

Dále jsem zahlédl zmínku, že tahle karta bez vlastní sériové konzole (AP6919) skutečně využívá sériovou konzolu hostitelského šasi. Tzn. reset hesla by se měl povést skrz sériovou konzolu hostitelského šasi. Ale pozor! Toto funguje jenom v některých modelech UPS šasi. Pokud zkombinujete AP6919 s "nekompatibilním" modelem UPS šasi, nebude Vám sériová konzola fungovat.

Pokud jste v téhle situaci, že Vám sériák prostě nefunguje, tak už mě napadá leda sednout si s kartou k osciloskopu, zkusit jí dát náhradní napájení a pokusit se najít, kudy vede uvnitř sériová konzola do šasi.

Taky se řešilo že SURT5000XLT (starší model) potřebuje jiný sériový kabel než SURTD5000XLT (mladší model). Nebo že standardně by ta konzola měla fungovat na 2400bps, ale na některých kusech že jede na 9600bps. A že je potřeba bouchnout několikrát do enteru, než se sériová konzola vzpamatuje a pošle login prompt...
9
Server / Tip na Storage VPS v ES/FR
« Poslední příspěvek od hknmtt kdy Dnes v 12:32:36 »
Hladam VPS vo Francuzsku alebo Spanielsku, ktore by malo aspon 2TB disk, desiatky TB traffic mesacne, aspon 2vCPU, aspon 4GB ram do 16€ mesacne. Povodne som chcel pouzit Contabo ale zdvyhli ceny a uz sa vobec nevyplatia, hlavne s tym ich katastrofalnym "renomé".
10
Server / Re:Zvažuji přechod z Linuxu na FreeBSD
« Poslední příspěvek od Michal Šmucr kdy Dnes v 12:27:36 »
Prosím jak mohu zjistit nastavení UFS ?  Např. u odolnosti proti výpadkům elektřiny se to hodně liší, podle toho jaké žurnálování je zapnuté. Ale nevím jak to zjistit. Často se píše že  UFS SU+J, bylo fuj, ale dost možná je to hlavně v bug v jedné verzi freebsd, což už bylo dávno opraveno.  Někdo jiný si zase pochvaluje jiný typ journalování, ale nikdo jsem se o tom nenačetl nějaké shrnutí.

A pokud nepoužijí journálování vůbec, mělo by to znamenat, že oprava po výpadku bude trvat déle - musí projít vše, ale nekonzistence by nastat neměla a mělo by to být spolehlivější než oprava na pozadí s journalováním. Také je trochu lepší výkon.

Pokud jednou za deset let vypnout proud. Počítám s tím, že budu opravovat ručně a déle, ale nechtěl bych aby z dat byla fašírka. Pokud se několik posledních záznamů neuloží vůbec nevadí, ale nemělo by se poškodit nic předešlého.

tunefs -p /dev/device nebo tunefs -p /mountpoint

LolPhirae má pravdu v tom, že téměř žádný z těch režimů UFS (bez ničeho), UFS SU, UFS SU+J není tak odolný proti náhlým výpadkům hw nebo napájení jako třeba ext4 nebo ZFS.
Nejbezpečnější varianta z tohohle hlediska je UFS bez dalších povolených fíčur.
SU vzniklo kdysi primárně kvůli dvěma věcem - zrychlení metadatových operací s inody a rychlejší fsck, kdy to nekontroluje všechno. Ty metadatové operace se zrychlí proto, že se při zápisu dělá fs reordering a sdružuje je a řeší jejich závislosti. Hlavně na  točivých discích s dlouhou příst. dobou to přineslo razantní zrychlení při operacích s mnoha soubory v rozsáhlejších adr. strukturách a zvýšení propustnosti při přístupu z více procesů.
Nevýhodou je pak to, že se to proti normálnímu orderingu v UFS ty operace zpožďují (klidně i desítky vteřin) a při náhlém výpadku to může ovlivnit hodně souborů, do kterých se zapisovalo.
SU+J je přidání fixního 16MB žurnálu pro metadatové operace (tváří se jako soubor .sujournal v rootu), který hlavně dál zrychluje kontrolu a opravu na větších úložištích.
Bohužel se může stát, když se správně trefíte (aspoň když jsem to před pár lety testoval), že zatímco s UFS máte zasažených pár posledních souborů, co se nedopsaly. S UFS SU je jich razantně víc a u SU+J jich značná část skončí úplně prázdných, což pravděpodobně souvisí s tím, že to fsck rychle vymete a ihned uvolní data.
Takže, jestli si pro váš workload řeknete, že nevadí delší fsck, a případný pokles výkonu nebude zásadní, tak vypněte SU (tunefs -n disable /dev/neco).
Ještě je tam další režim, geom journal. A to je ještě něco jiného, to udělá v podstatě virtuální zařízení (jako dm v Linuxu), kde se pak prování žurnálování na úrovni bloků. Filesystém je nad tím, všechny zápisy jdou přes žurnál.
Vždycky mi to přišlo jako hack, co ten primární problém moc neřeší.

Nicméně, jestli si to pamatuju dobře, tak s LolPhirae jsme o tomhle přesně mluvili. A já jsem trochu oponoval tím, že se sice je to dost blbé (a bylo by fajn, aby i FreeBSD mělo robustní ne-COW systém), ale prakticky vzato jsem žádné tragédie i po výpadcích s SU, kdy bych se z toho nedostal, něměl. Část toho je pravděpodobně klika, část je daná tím, že také hodně závisí na konkrétní aplikaci, jak přesně zapisuje. Jestli používá standardně page cache, nebo O_DIRECT příp O_SYNC. Jestli třeba sama nepoužívá fsync() nebo "jen" fdatasync() atp.
Když tam byla nějaká data, co jsem chtěl mít celá (třeba logy nebo malou db), tak jsem měl mountpoint s vynuceným syncem, což je samozřejmě trochu extrém, protože daň za to pak je, že je to líné jak vandrácká hůl.

Upřímně, za posledních pár let jsem na FreeBSD téměř vždy používal jen ZFS. To, že je součástí systému a plně integrované, mi přišlo jedna z mála výhod, které to má oproti Linuxu, a byl to také hlavní důvod nasazení FreeBSD jako takového.
A také si odhaduji, že to tak má většina uživatelů, což je možná důvod, proč UFS a řešení těch problémů nevypadá jak nějaká extra priorita.

Jinak vcelku extenzivní test ohledně odolnosti je třeba tady:
https://unixdigest.com/articles/battle-testing-php-fopen-sqlite-postgresql-and-mariadb-on-ffs-ufs-ext-xfs-and-zfs.html

Já si pár let zpět dělal něco podobného, byť jen se simulovanými pády QEMU virtuálu s FreeBSD, OpenBSD a Linuxem. Používal jsem dd, případně něco, co jsem si narychlo spácal na testy. Ve smyčce to zapisovalo a modifikovalo soubory, věděl jsem kontrolní součty, takže jsem po opravě fs byl schopen rychle kontrolovat, jak to dopadlo. Zkoušel jsem různé variace přístupů, syncování. Dopadlo to víceméně stejně, jako v linkovaném článku.
Můj závěr byl, že v Linuxu to není třeba extra řešit, na FreeBSD pak ZFS. UFS bez SU jako bezpečnější volba, pokud nějakého důvodu nemůžu, nechci COW. OpenBSD strašně líné, neškláluje se, ale je konzistentní.
Stran: [1] 2 3 ... 10