reklama

Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - drmartins

Stran: [1] 2 3
1
No na google docs mas soubory a da se v tom vyhledavat.
Paklize to je pro interni potreby na nejake navody atd tak proc ne
Ale samozrejme wiki jakehokoliv druhu je zrejme lepsi

2
já používám mediawiki https://www.mediawiki.org/wiki/MediaWiki
případně docela dobrý na to jsou google docs

3
Server / Re:Virtualizované servery (kontejnery) na kliknutí
« kdy: 01. 10. 2019, 12:52:24 »
take mi z toho vychází proxmox. Je nejjednodušší na nainstalování i na správu a i na následné vytváření VM/conteinerů
přiřazování adres pak lze řešit přes dhcpko

4
Server / Re:Jakým nástrojem virtualizujete?
« kdy: 01. 10. 2019, 12:49:49 »
Pokud vím, tak pro KVM není dostupný žádný clusterovaný filesystem, který je na live migraci potřeba. VMware mají svůj VMFS, Oracle má něco svého (neznám).

Jde o to, že v rámci SAN musí vidět na virtuální disky všichni hostové clusteru. V době live migrace se sesynchronizuje RAM a CPU a přepne se chod na druhé železo. Ale to musí dál vidět na disky.

Pokud jsem to kde četl, tak VMFS je v tomto ohledu nejdál.
Amazon a Google mají takovou sílu a takové množství, že se jim vyplatí udržovat si vlastní řešení a neplatit VMware licenci.
ceph se na tohle používá. Proxmox ho také podporuje a dá se nastavit přes webový xicht toho proxmoxu.

5
Odkladiště / Re:Bazoš - kupující nezaplatil, co dál
« kdy: 25. 09. 2019, 13:26:40 »
Kdyz podas trestni oznameni policie se tim musi zabejvat a myslim ze kdyz tam dodas i potrebne informace tak by ti meli pomoci

6
Hardware / Re:Je zahřívání SSD důvodem k reklamaci?
« kdy: 23. 09. 2019, 18:53:35 »
Ocekaval bych ale ze bude fungovat a ne ze bude rychlost pomalejsi nez zapis na disketu
Nicmene kdyby mi to nevzali na reklamaci tak to vratim.Jeste to nemam 14 dni tak pohoda

7
Hardware / Re:Je zahřívání SSD důvodem k reklamaci?
« kdy: 23. 09. 2019, 12:54:06 »
tak to jsem potřeboval vědět tuhle informaci. Díky moc hodim jim to na hlavu a koupim něco jiného.
Já si rád připlatim za disky na systém nebo na data, tady jsem tak nějak očekával že levnější disk bude třeba pomalejší ale ne že mi skoro hned chcípne :-)

8
Hardware / Je zahřívání SSD důvodem k reklamaci?
« kdy: 23. 09. 2019, 11:32:33 »
Mám takový problém. Pořídil jsem si na transkódování videa do domácího serveru ssdčko ADATA SU630. Prostě levná věc, která když chcípne tak je mi to úplně jedno
Nicméně jde mi o to, že když tam začnu tlačit nějaká data z velkého diskového pole, tak po chvíli kdy to krásně letí kolem 250MB/s se ten disk začne zahřívat a rychlost klesne.

Teploty v zátěži vypadají takto:
Kód: [Vybrat]
/dev/sda: WDC WD30EFRX-68EUZN0: 25°C
/dev/sdb: WDC WD30EFRX-68EUZN0: 27°C
/dev/sdc: WDC WD30EFRX-68EUZN0: 25°C
/dev/sdd: WDC WD30EFRX-68EUZN0: 24°C
/dev/sde: WDC WD30EFRX-68EUZN0: 24°C
/dev/sdf: WDC WD30EFRX-68EUZN0: 24°C
/dev/sdg: WDC WD30EFRX-68EUZN0: 24°C
/dev/sdh: WDC WD30EFRX-68EUZN0: 24°C
/dev/sdi: CT120BX500SSD1: 29°C
/dev/sdj: CT120BX500SSD1: 30°C
/dev/sdk: ADATA SU630: 57°C

a při této teplotě rychlost kopírování (kopírováno přes midnightcommaner) se mi postupně snižuje, až to teď při této teplotě disku běží 37MB/s, což je dost zoufalé.

Jedná se tedy samozřejmě o zápis na tento disk.

Mám 5u šasi, zepředu na to fouká větrák uvnitř dva obří větráky foukají směrem od disků ven.

Moje otázka zní:
Je tohle normální u nového disku? Dokážu tohle nějak vyreklamovat? Nejsem zvyklý na to aby ssdkčko bylo pomalejší než umírající hddčko.

9
Server / Re:Ceph failure scenario
« kdy: 23. 09. 2019, 11:23:37 »
Tady to jen říká, že mu vypadli disky a že se snaží ty pg který jsou degradovaný rozházet po ostatních discích.
Pokud vim, tak ceph dělá tyhle věci dost nevybíravě a nejde mu takový proces ani ionicenout. Takže jestli tam máš točivé disky a jen málo disků, tak ceph začne ty osdčka rozhazovat po jiných živých osd a tim to zabije.
Takže bych to nepřizusoval ten tvůj problém cephu jako takovému, ale opravdu spíše té hw vybavenosti. Kdyby tam těch disků bylo více a byly to ssdčka, bylo by to mnohem rychlejší a myslím, že ty VMka by to pak pocítili jen lehce.

10
Server / Re:Výkon NFS nad Cephem
« kdy: 19. 09. 2019, 13:41:23 »
uložené to nemám, ale můžu ti to pustit kdykoliv znovu.

11
Sítě / Re:Malá Wi-Fi síť pro rodinnou firmu
« kdy: 19. 09. 2019, 12:23:22 »
určitě unifi
ani neni třeba vm, stačí to nakonfigurovat z nějakého ntb nebo počítače. Pak to bude fungovat a není třeba ten controler k tomu
lze konfigurovat i z mobilu
a pokud to spěchá tak to prostě takhle nabouchat a pak si pořídit třeba nějakou malinu kdyby tě zajímali statistiky a chtěl to mít dostupné.

12
Server / Re:Open-source mail server pro Linux nebo Windows
« kdy: 19. 09. 2019, 11:35:29 »
dobrá zkušenost s https://mailcow.github.io/mailcow-dockerized-docs/
jediné co může být odrazující je že to je v dockeru. Ale jinak to funguje krásně. Je to komplet mailserver včetně antispamu antiviru atd. Konfigurovatelné přes web.

13
Server / Re:Výkon NFS nad Cephem
« kdy: 19. 09. 2019, 11:20:29 »
Tak jsem se pustil do toho co jsi chtěl. Příkazy beru tak jak jsi je dal na proxmox forum
1vm
Kód: [Vybrat]
fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randwrite

Run status group 0 (all jobs):
  WRITE: bw=75.9MiB/s (79.6MB/s), 75.9MiB/s-75.9MiB/s (79.6MB/s-79.6MB/s), io=4096MiB (4295MB), run=53979-53979msec

Disk stats (read/write):
  vda: ios=0/1047834, merge=0/23336, ticks=0/3065952, in_queue=597436, util=87.32%

fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randread

Run status group 0 (all jobs):
   READ: bw=278MiB/s (292MB/s), 278MiB/s-278MiB/s (292MB/s-292MB/s), io=4096MiB (4295MB), run=14733-14733msec

Disk stats (read/write):
  vda: ios=1044944/3, merge=0/1, ticks=770811/7, in_queue=832, util=99.57%

fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75

Run status group 0 (all jobs):
   READ: bw=149MiB/s (156MB/s), 149MiB/s-149MiB/s (156MB/s-156MB/s), io=3070MiB (3219MB), run=20582-20582msec
  WRITE: bw=49.8MiB/s (52.3MB/s), 49.8MiB/s-49.8MiB/s (52.3MB/s-52.3MB/s), io=1026MiB (1076MB), run=20582-20582msec

Disk stats (read/write):
  vda: ios=781215/261079, merge=0/4, ticks=555460/588911, in_queue=130816, util=92.45%

 a 2VM přes nfs (tady moje trpělivost nevydržela a velikost souborů jsem rapidně zmenšil a stejně jsem u toho zestárl)
Kód: [Vybrat]
fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name test --filename=test --bs=4k --iodepth=64 --size=512M --readwrite=randwrite

Run status group 0 (all jobs):
  WRITE: bw=5269KiB/s (5396kB/s), 5269KiB/s-5269KiB/s (5396kB/s-5396kB/s), io=512MiB (537MB), run=99503-99503msec

čtení jakš takš ale stejně nic moc
fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name test --filename=test --bs=4k --iodepth=64 --size=2G --readwrite=randread

Run status group 0 (all jobs):
   READ: bw=120MiB/s (126MB/s), 120MiB/s-120MiB/s (126MB/s-126MB/s), io=2048MiB (2147MB), run=17004-17004msec

Run status group 0 (all jobs):
   READ: bw=35.2MiB/s (36.9MB/s), 35.2MiB/s-35.2MiB/s (36.9MB/s-36.9MB/s), io=768MiB (805MB), run=21790-21790msec
  WRITE: bw=11.8MiB/s (12.3MB/s), 11.8MiB/s-11.8MiB/s (12.3MB/s-12.3MB/s), io=256MiB (269MB), run=21790-21790msec


a ještě přikládám výsledky cephfs který je připojený na 2VM
příkazy teď pouze zkopírovány a puštěny
Kód: [Vybrat]
fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randwrite

Run status group 0 (all jobs):
WRITE: bw=76.5MiB/s (80.2MB/s), 76.5MiB/s-76.5MiB/s (80.2MB/s-80.2MB/s), io=4096MiB (4295MB), run=53532-53532msec

fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randread

Run status group 0 (all jobs):
   READ: bw=196MiB/s (205MB/s), 196MiB/s-196MiB/s (205MB/s-205MB/s), io=4096MiB (4295MB), run=20942-20942msec

Run status group 0 (all jobs):
   READ: bw=110MiB/s (115MB/s), 110MiB/s-110MiB/s (115MB/s-115MB/s), io=3070MiB (3219MB), run=27951-27951msec
  WRITE: bw=36.7MiB/s (38.5MB/s), 36.7MiB/s-36.7MiB/s (38.5MB/s-38.5MB/s), io=1026MiB (1076MB), run=27951-27951msec

disky jsou SAMSUNG MZ7LH3T8HMLT-00005

14
Server / Re:Ceph failure scenario
« kdy: 19. 09. 2019, 10:40:58 »
Mám přesně tuhle konfiguraci co máš ty. 3x node pve/ceph 2x disk systém (hw raid) 2x disk pro osd

Tento scénář jsem zatím netestoval, pouze "smrt" nodu kde je nějaký server aby zafungovalo HA.
Můžu to zkusit tak jak popisuješ ty.
Čili jestli to dobře chápu máš nějaký VM, který ti běží třeba na nodu 1 a ty zabiješ node 3 a zajímá tě co to bude dělat s diskem v té VM?

15
Server / Re:SW RAID5 rozdělení oddílů
« kdy: 04. 09. 2019, 13:08:14 »
mno a odpověď na jeho otázku byla že se na to má vykašlat a udělat to znovu od začátku.
navíc za zfs by si udělal nový pool a ten si přimountoval kam by chtěl

ale jeslti ti přijde lepší se patlal se zmenšováním raidu, na kterym je ještě ke všemu root partition tak mu odpověz lépe

Stran: [1] 2 3

reklama