Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - redustin

Stran: 1 ... 19 20 [21] 22 23 ... 26
301
Dell Precision T3610 quad-core xeon E5-1620 v2 - velice tiché, slušný výkon, spolehlivé, výborně udělaný case (tunel jako u serverů), samozřejmě nežere 40W

https://www.ebay.de/itm/Dell-Precision-T3610-WS-Intel-Xeon-E5-1620v2-3-70GHz-256GB-SSD-16GB-RAM-Win-7/153588403712

8 x 16GB = 128GB PC3-12800R
https://www.ebay.de/itm/Samsung-128GB-8x16GB-2Rx4-PC3-12800R/123865620758

24/7 dá s vysokou pravděpodobností ještě spoustu let.

Ještě na firmu/plátce DPH lze odečíst u obou nákupů německé DPH 19%.

302
Přes 15 let používáme na linuxu pardubické Obis4SQL, legislativu samozřejmě řeší, pravidelně mají aktualizace. Normální 64bit pro debian/ubuntu, GUI i přes VNC/x2go. Spouštíme síťově přes NFS z intranetu, DB firebird, víceuživatelský přístup. Píšou to v Lazaru(su) (dříve měli Delphi), zákaznické skripty (máme jich za ty roky už spoustu) v Lua. Spravují vzdáleně přes ssh.

Pravidelně se tu objevuje, že není české účto pro linux, přitom se stačí pořádně podívat.

303
Hardware / Re:Tipy na malá levná CPLD/FPGA
« kdy: 11. 09. 2019, 12:59:41 »
Vím o tom houby, ale nepomohlo by nějaké vyztužení desky v okolí QFN, jako např. https://e-fab.com/products/pcb-stiffeners/ ?

304
Server / Re:Přetížený disk
« kdy: 09. 09. 2019, 09:36:39 »

305
Server / Re:SW RAID5 rozdělení oddílů
« kdy: 06. 09. 2019, 20:37:32 »
Představ si, že reálný život není jak z učebnice správců.

1) konsolidace dvou serverů na jeden do lxc kontejnerů. Disky dvou původních MD raid polí (pole A, pole B) přesunuté do 24-bay bedny
2) Přesun hodně dat z pole A do velkého pole B, protože A bylo plné.
3) Pole A překlopené do ZFS. Použito pár nových disků, aby šel přechod udělat.
4) Zbylé disky z pole A přidány do ZFS, aby bylo ZFS dost velké pro data z B.
5) Testování přechodu z backuppc3 na backuppc4 pomocí toho velkého pole. Ukazuje se, že konverze je velice pomalá (pole má stovky miliónů hardlinků) a zálohování by muselo být shozené příliš dlouho.
6) Testování zvol pro přesun celého XFS bez potřeby likvidace hardlinků - běží však příliš pomalu. Při tom muselo být ZFS samozřejmě dostatečně velké, aby se to tam celé pole B vešlo.
7) Odstranění 17TB zvol  - tedy ZFS zůstalo plné jen z 10%.
8 ) Mezitím nárůst jiných priorit, stávající řešení běží OK, ponecháno jak je.

ZFS pole je je pro data devel serveru (testy, CI, různé verze), běží na něm několik klonů anonymizované produkční DB pro devel. Výkonově klíčové DB mají data samozřejmě na SSD.

Celé to trvalo dlouho a od té doby také uplynulo dost času. Je spoustu jiné práce, než řešit pár nadbytečně běžících disků. Jednak je nelze ze ZFS odstranit, jednak se budou hodit, protože k přesunu z pole B dojde, až backuppc4 nabere trochu historie a bude možné pool z backuppc3 nechat jen jako soubor s obrazem přes loopback.

Samozřejmě z 10 disků jich časem pár umřelo, to je úplně normální. Nahrazují se rovnou dvojnásobnými, na nyní skoro prázdném ZFS jsou syncnuté za chvíli (narozdíl od MD raidu).

Takže odlož svou věšteckou kouli, máš ji rozbitou.

306
Server / Re:SW RAID5 rozdělení oddílů
« kdy: 06. 09. 2019, 17:33:21 »
Ta chvíle už je nějaké dva roky :-)

307
Server / Re:SW RAID5 rozdělení oddílů
« kdy: 06. 09. 2019, 17:06:43 »
Ano, to pole je zaplněné jen z 10%. Jde o reálné použití, ZFS pole bylo od začátku připravené pro přesun toho MD raidu. Protože přesun  vyžaduje přejít z hardlinkovaného backuppc3 na metadatové backuppc4, zatím němu stále nedošlo. Mezitím v ZFS postupně odešly dva disky (na začátku již měly něco naběháno). Point je v tom, že rebuild trval řádově kratší dobu, než by trval rebuild celého disku v MD raidu. Rychlost zápisu při synchronizaci ZFS i MD byla srovnatelná. Čekal jsem hit na ZFS kvůli kopírování na úrovni filesystému, zatímco MD jede sekvenčně (RAID10), ale zřejmě je to na disku dobře uložené. Jelo to v klidu 100-150MB/s pro SATA, což je standardní limit disku.

Samozřejmě až bude ZFS plné, rozdíl nebude žádný. jenže stejně jako málokdo (dlouhodobě) provozuje pole zaplněné z 10%, málokdo buduje pole, které je hned na začátku plné...

308
Hardware / Re:Tip na 12+ LFF server
« kdy: 06. 09. 2019, 12:58:26 »
A jaké jsou tam řadiče pro těch 12 disků?

309
Hardware / Re:Tip na 12+ LFF server
« kdy: 06. 09. 2019, 11:53:09 »
A zjišťovali jste, kolik by stálo dodat 826ku s tou JBOD backplane bez expandéru od smicro.cz?

310
Pro debian má mariadb velice slušnou podporu starších (i nových) verzí, pro nejnovější řadu 10.3 mají deby i pro oldoldoldstable wheezy. Takže aktualizace mariadb bych se nebál.

311
Server / Re:SW RAID5 rozdělení oddílů
« kdy: 04. 09. 2019, 16:52:44 »
Ano, ale tazatel má RAID5 a jeho resync 17TB při 4 discích bude také minimálně 1 den.

312
Hardware / Re:Tip na 12+ LFF server
« kdy: 04. 09. 2019, 11:49:59 »
SM používá normální SFFxxx kabely. Nákupy na ebayi/paypal normálně dáváme deset let do účetnictví (AS, samozřejmě plátce DPH). Držím palce s pořízením něčeho takového v ČR.

313
Hardware / Re:Tip na 12+ LFF server
« kdy: 04. 09. 2019, 10:22:00 »
Mám dobré zkušenosti s kompatibilitou SAS2/SAS3 backplanes od supermicra s OEM řadiči od LSI, hlavně podpora LEDek (SES2).

Supermicro 826 stojí pár tisíc z DE https://www.ebay.com/sch/i.html?_from=R40&_nkw=supermicro+826&_sacat=0&_sop=12

Pravděpodobně nebude mít SAS3 backplane bez expandéru, ale nová stojí < 5k https://www.smicro.cz/supermicro-bpn-sas3-826a-n4-11422.html Pozor - je potřeba verzi bez EL (expandér)

Xeony E3-2600 stojí pár šupů (třeba 2 x 8jader), DDR3 12600R tam dáš za 9 litrů 256GB na pořádné keše https://www.ebay.com/itm/256GB-16x-16GB-PC3-12800R-Memory-Dell-PowerEdge-R520-R610-R620-R710-R720-R810/372696437270

2 nové řadiče https://www.ebay.com/itm/OEM-LSI-9300-8I-PCI-Express-3-0-SATA-SAS-8-Port-SAS3-12Gb-s-HBA-Single/173708301179 (přesně tenhle jsem od toho číňana kupoval) + kabely za pár stovek

Přímo tuhle backplane vyzkoušenou nemám, ale jiná od SM https://www.google.com/search?q=M28SACB-OEM bliká přes sas3ircu a kabely SFF8643, takže bych se té 826ky nebál. Máme starší 846 SAS2 a ta bliká také v pohodě přes interní SFF8087 (nechápu, proč externí SAS2 SFF8088 navrhli bez GPIO linek, externí SAS3 už je má - ale to už je jiný příběh...).

314
Server / Re:SW RAID5 rozdělení oddílů
« kdy: 03. 09. 2019, 13:39:23 »
resync (s RAID6) mdadm cca 1den, to neni zrovna nekonecne ;-)


Konkrétní systém:
Kód: [Vybrat]
zpool list
NAME   SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
tank  24.5T  1.85T  22.6T         -    19%     7%  1.00x  ONLINE  -

zpool status
NAME                                          STATE     READ WRITE CKSUM
tank                                          ONLINE       0     0     0
  mirror-0                                    ONLINE       0     0     0
    ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T1031176  ONLINE       0     0     0
    ata-WDC_WD30EFRX-68EUZN0_WD-WMC4N0J25NCZ  ONLINE       0     0     0
  mirror-1                                    ONLINE       0     0     0
    ata-TOSHIBA_HDWD130_78FVP49AS             ONLINE       0     0     0
    ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T1315714  ONLINE       0     0     0
  mirror-2                                    ONLINE       0     0     0
    ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T1327418  ONLINE       0     0     0
    ata-TOSHIBA_DT01ACA300_55C60GEGS          ONLINE       0     0     0
  mirror-3                                    ONLINE       0     0     0
    ata-WDC_WD60EFRX-68L0BN1_WD-WX11D77K745H  ONLINE       0     0     0
    ata-ST6000VN0041-2EL11C_ZA1994N9          ONLINE       0     0     0
  mirror-4                                    ONLINE       0     0     0
    ata-TOSHIBA_HDWE160_17ARK09JF56D          ONLINE       0     0     0
    ata-WDC_WD60EFRX-68L0BN1_WD-WX51D77EYZCS  ONLINE       0     0     0
  mirror-5                                    ONLINE       0     0     0
    ata-TOSHIBA_HDWN160_57GGK0CWFPAE          ONLINE       0     0     0
    ata-ST6000VN0041-2EL11C_ZA199FF1          ONLINE       0     0     0

Pole je téměř prázdné (jako má tazatel), resilvering po výměně vadného disku zabere do 10 minut.

Ve stejném serveru i MD RAID10 z 8 disků:

Kód: [Vybrat]
Filesystem      Size  Used Avail Use% Mounted on
/dev/md6         17T   11T  6.1T  64% /mnt/raid

Resync vadného disku skoro celý den, samozřejmě obojí za provozu. Taková doba bez redundance je dost nekonečná :-) A je to RAID10 (ne 5 či 6), takže resync podstatně rychlejší než RAID5/6.


315
Server / Re:SW RAID5 rozdělení oddílů
« kdy: 03. 09. 2019, 10:12:22 »
to udělej celé od začátku. A zahoď md raid a udělej si tam zfs raid :-)

Naprostý souhlas. 16TB na MD RAID5 bych nedával. Jenom resync po výměně disku bude nekonečný... ZFS je v pohodě, resyncuje jen bloky s daty, při nezaplněném filesystému (což dle df tak vypadá) je resync nesrovnatelně rychlejší.

Stran: 1 ... 19 20 [21] 22 23 ... 26