Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - Ivan Večeřa

Stran: [1]
1
Sítě / Re:Netfilter's flowtable
« kdy: 20. 09. 2023, 11:52:49 »
HW offloading flowtable umí v současnosti mlx5 a mt7621 a mt7622. Ty mediateky určitě i HW NAT pro IPv4.

2
Distribuce / Re:Cesta k ~/.local/bin není v $PATH, proč?
« kdy: 13. 02. 2019, 07:55:29 »
To bude tím, že profile soubor se čte pouze v případě login shellu.

Zkus spustit terminál a z něj pak:
Kód: [Vybrat]
$ exec bash --login

3
Server / Re:ZFS deduplikace a spotřeba paměti
« kdy: 12. 12. 2017, 13:36:51 »
Ono opravdu zalezi na use-case. Zapinat deduplikaci by default nebo pool-wide je nesmysl a zbytecne plytvani pameti. Sam mi s uspechem pouzivam u ZVOLu, ktere slouzi jako uloziste exportovane pres iSCSI bezdiskovym stanicim. Na stanicich bezi Windows 7 a dedup ratio je celkem velke cca 3.5:1.

Je ale potreba dat bacha na parametry, treba ja u tech ZVOLu mam volblocksize 32k a velikost clusteru v tech Windows je tez 32k. Pri tomto nastaveni ma DDT tabulka 3505973 polozek a kazda z nich zabira v pameti 194 bajtu - tzn. nejakych 648MB. Pokud bych ovsem volblocksize nechal na 4k a stejne tak NTFS cluster size tak tech polozek bude 8x vice a spotreba pameti pro DDT pak vice nez 5 GB, coz uz je znatelne.

Takze za mne, deduplikaci ano, ale s _velkym_ rozmyslem a hlavne tam kde to ma smysl. U mail serveru to smysl nema protoze i stejne zpravy se na zacatku budou lisit hlavickami, takze ty bloky budou jine.

Dale je dobre dat na datasety nebo ZVOLy checksum vhodnou pro deduplikaci (napr. SHA256), jinak bude dochazet ke kolizim a celoblokovym porovnanim, coz se odrazi na vykonu.

4
Server / Re:Používá někdo OpenIndiana?
« kdy: 25. 03. 2015, 12:29:33 »
Ještě jsem zkoušel DilOS na kterém jede Xen Dom0. Tak pak mezi tímto hostem a Linux guestem na paravirtualizované síťovce cca 2.5 Gbit (iperf).

5
Server / Re:Používá někdo OpenIndiana?
« kdy: 25. 03. 2015, 12:27:54 »
Me docela zklamal vykon virtio sitovek v guestech pod SmartOS. Zkousel jsem Linux i Windows guest s virtio ovladacema, ale u host <-> guest jsem se pres gigabit nedostal, coz je docela slabe.
To je zajímavý. A ten samý Linux hostovaný na KVM na Linuxu se dostane výš?

Podle http://dtrace.org/blogs/brendan/2013/01/11/virtualization-performance-zones-kvm-xen/ bych to ani moc nečekal...
Řádově víš... na stejném stroji jsem neměl problem s iperfem dosáhnout mezi Linux host a Linux guest 10-12 Gbit. Na SmartOS hostu a Linux guestu pouhych cca 700 Mbit.

7
Server / Re:Používá někdo OpenIndiana?
« kdy: 24. 03. 2015, 19:01:02 »
Jeste muzu doporucit, mrkni na SmartOS (https://smartos.org/) - ale to neni general-purpose distro, to je stateless hypervisor image s moznosti instalace baliku z NetBSD pkgsrc.
Máte se SmartOS nějaký větší zkušenosti? Docela by mě zajímalo, jak je to použitelný, stabilní a jak dobře/špatně se s tím pracuje. Třeba to pkgsrc jsem zkoušel provozovat na Linuxu, ale nedalo se - oproti FreeBSD portům to bylo značně zabugované (jednotlivé balíčky, ne systém portů). Nevím, jestli to bylo tím, že to na Linuxu nikdo nepoužívá, nebo to tak prostě je.
Me docela zklamal vykon virtio sitovek v guestech pod SmartOS. Zkousel jsem Linux i Windows guest s virtio ovladacema, ale u host <-> guest jsem se pres gigabit nedostal, coz je docela slabe.

9
Server / Re:Samba+CUPS, automatická dodávka Win ovladačů
« kdy: 02. 03. 2015, 12:44:55 »
Podivej se sem https://wiki.samba.org/index.php/Samba_as_a_print_server Jinak dela se share print$

10
Server / Re:Virtualizace a distribuce na server
« kdy: 09. 04. 2014, 16:02:47 »
Musis hledat opravdu velmi peclive serverovy hardware, abys pak nebyl velmi nemile prekvapen.

Bohuzial, je to tak. Solaris a jeho derivaty vyzaduju serverovy hardware. Solaris a ZFS miluje vela RAM a vela jadier. :(

Da sa vsak zohnat aj "lacny" serverovy hardware. Supermicro maticak, obycajne Kingston ECC RAM, nejaky ten rozumny Intel Xenon, Intel sietovky. Pocitil som vyraznu zmenu oproti konzumnemu HW.

Presne tak jsem uvazoval... zelezo zalozeny na server platforme Supermicro. Potreboval jsem neco, co umi alespon 7 SATA/SAS portu - 6 disku do RAID10 + 1 SSD S3700 jako ZIL/L2ARC. Bohuzel nemuzes pouzit C602/C606 chipsety, protoze ty maji 6 SATA portu, ktere Illumos podporuje, ale uz ne dalsi 4 porty ktere poskytuje onboard SCU radic, protoze ten Illumos nepodporuje. Takze bud musis prikoupit nejaky LSI2008 v IT modu, ktery je podporovan naopak skvele, ale to zase stoji 3-4 tis. navic anebo desku ktera ma LSI2008 onboard, ale ty zase stoji take mnohem vice.

Jeste bych chtel dodat, ze me mrzi trosku stav Illumosu a jeho derivatu jakozto virtual guestu. Tuto moznost jsem take uvazoval... Ze bych mel jako virtual hosta Linux a Solaris by v nem bezel jako storage appliance s tim ze bych mu pres IOMMU predal radic LSI2008 s pripojenymi disky + pripadne sitovku. Tady jsem narazil... zkousel jsem ho spouset jako PV guest v Xenu, ale bohuzel Illumos nema PCI frontend, takze PCI passthrough nefunguje. Rozchodit jako HVM guest jde, ikdyz je tam nekolik problemovych mist, ktere musi clovek poresit aby to vubec bezelo. Pomoci PCI passthrough se mi dokonce zarizeni objevily v guestu, ale bohuzel nefungovaly. Samozrejme by slo predavat cele disky jako paravirtualizovane disky a totez sitovka, ale nevim nevim jestli by to bylo to prave orechove pro nasazeni "network storage". Navic podpora Dom0 i DomU se prakticky uz vubec nevyviji.
Pod KVM sice Illumos bezi, ale podobne jako u Xen HVM zarizeni jdou predat pres passthrough, ale nefunguji. Co se tyce virtio tak Illumos podporuje pouze vioblock, sitovku bohuzel ne, coz je dalsi komplikace.

Vzhledem ke vsemu uvedenemu, jsem nakonec skoncil u Linuxu s mdraid + LVM2 + bcache + externi ext4 journaly na SSD. KVM virtualizace je na Linuxu bez problemu a po case s bcache jako SSD cache musim rict, ze jsem spokojen velmi.

11
Server / Re:Virtualizace a distribuce na server
« kdy: 09. 04. 2014, 14:47:56 »
...
No a tie zaujimave technologie su:
Lightweight virtualization: zones provide a combination of system resource controls and the boundary separation provided by zones.

Hardware virtualization: KVM provides full hardware virtualization for running safe and isolated guests such as Microsoft Windows, Linux, FreeBSD and many others.

Network virtualization: Crossbow provides the building blocks for network virtualization and resource control by virtualizing the stack and NIC around any service (HTTP, HTTPS, FTP, NFS, etc.), protocol or container.

ZFS file system: combined file system and logical volume manager with superior data integrity protection and scalability.

DTrace: provides increased visibility and aids in troubleshooting on any level of the application stack.

Plne s tebou souhlasim, Solaris jsem zkousel (Solaris 11, SmartOS & OmniOS). Vsechny technologie co jsi psal jsou fakt super, ale kazdy z nich ma nekolik nevyhod kvuli kterym jsem ho nemohl nasadit na novy server.

Tak predne, potreboval jsem server, ktery bude slouzit jako iSCSI target pro nekolik bezdiskovych stanic a ktery bude virtualizovat 2 dalsi masiny (Linux a Windows). Rikal jsem si super, Solaris se svym ZFS a COMSTAR targetem je uplne killer na nasazeni jakozto network storage. Bohuzel kvuli tomu, ze potrebuju jeste virtualizovat, tak mi hned odpadl Solaris 11, ktery jej nema. Rikam si, nevadi, mrknu na SmartOS, ktery to ma. Ale ouha, KVM sice funguje, ale problem je, ze virtualni sitovky udelaji s bidou 500-600 Mbit (host <-> guest) a to je oproti Linuxu na stejnem HW sakra malo. Dalsim problemem u derivatu Illumosu je HW podpora. Musis hledat opravdu velmi peclive serverovy hardware, abys pak nebyl velmi nemile prekvapen.

Stran: [1]