Fórum Root.cz
Hlavní témata => Server => Téma založeno: homipc 06. 01. 2015, 10:22:50
-
Resim novy server do racku, rozhoduji se mezi vlastnim poskladanim nebo hotovym resenim?
Pozadavky:
Ubuntu
16 pc (winxp-win8, tedy Samba)
3 sit. tiskarny
8 virtualu (WinXP kvuli kompatibilite s win softem a vzd. sdileni)
software:
posta (dovecot)
3x sitove programy - databaze
Doporucite hw sestavu (MB,CPU,RAM,4xHDD (RAID),zdroj...) nebo hotove reseni cca 40 tis.?
Pokud jsem porovnaval vykonnost, tak server (Fujitsu, HP, Dell) mne vyjde min. 2x draz nez vlastni skladacka, vyplati se to?
-
mne vyjde min. 2x draz nez vlastni skladacka, vyplati se to?
Většinou ano, protože za 5 let lehce vyhledáš specifikaci všech komponent, budeš mít k dispozici dýl náhradní díly a hlavně si můžeš koupit NBD podporu apod.
To "2x dráž" bych docela chtěl vidět. Pokud použiješ srovnatelné komponenty ("serverové"), tak pochybuju, že se můžeš dostat na poloviční cenu. Jo, jestli to počítáš tak, že místo hw raidu dáš desku s embedded "raidem", tak to pak jo ;)
Jinak hw ti nikdo neporadí, záleží na zátěži. Z toho popisu, co tam bude běžet, nikdo skutečnou zátěž nevykoumá.
-
BTW, pokud nutně nepotřebuješ rackmount, tak normální "desktopový" formfactor bývá levnější.
-
Mně moc nejde dohromady spojení "server" a "Ubuntu". Může mi někdo osvětlit, v čem to má přidanou hodnotu oproti například Debianu? Potkal jsem to jednou a utíkal jsem co mi síly stačily, po základní instalaci 10k pitomých balíčků k ničemu, X-ka, ale ssh jsem neměl... Proč je dnes moderní cpát všude Ubuntu, když to distro začínalo jako dektopové a hraje si na "usnadnění" postupů, což v serverovém nasazení prostě nedává smysl?
-
Mně moc nejde dohromady spojení "server" a "Ubuntu". Může mi někdo osvětlit, v čem to má přidanou hodnotu oproti například Debianu?
Protože to lidi dobře znají z desktopu, tak to hodí i na server.
-
To mi přijde praštěné... pokud každý den jezdím do práce Škodovkou, dobře ji znám, ale na měsíc s ní nepojedu, protože pro to nemá předpoklady, budu potřebovat raketu. Proč je to v případě serveru jinak, to stále nechápu. :)
Mně moc nejde dohromady spojení "server" a "Ubuntu". Může mi někdo osvětlit, v čem to má přidanou hodnotu oproti například Debianu?
Protože to lidi dobře znají z desktopu, tak to hodí i na server.
-
To mi přijde praštěné... pokud každý den jezdím do práce Škodovkou, dobře ji znám, ale na měsíc s ní nepojedu, protože pro to nemá předpoklady, budu potřebovat raketu. Proč je to v případě serveru jinak, to stále nechápu. :)
Tak ono Ubuntu není vyloženě desktopová záležitost. Na serverech se používá dost, třeba v cloudech je docela populární. Já osobně mám radši CentOS/RHEL, ale tak proti gustu... ;)
-
Mně moc nejde dohromady spojení "server" a "Ubuntu". Může mi někdo osvětlit, v čem to má přidanou hodnotu oproti například Debianu? Potkal jsem to jednou a utíkal jsem co mi síly stačily, po základní instalaci 10k pitomých balíčků k ničemu, X-ka, ale ssh jsem neměl... Proč je dnes moderní cpát všude Ubuntu, když to distro začínalo jako dektopové a hraje si na "usnadnění" postupů, což v serverovém nasazení prostě nedává smysl?
Ubuntu má serverovou instalaci a je to v podstatě Debian. Jen s větší userbase a tedy i lepší podporou. Dávám ho všude a bez problémů.
-
Ubuntu má hlavně LTS verze se serverovou podporou na minimálně 5 let. Debian tohle dlouho neměl vůbec a i Squeeze-LTS je co jsem pochopil taková bokovka, kterou bych se na důležitých serverech asi bál používat.
-
Je otázka, jestli se v případě Ubuntu dá vůbec mluvit o nějaké kvalitní podpoře. Ono je pěkné, že je to na papíře podporované 5 let, ale když si člověk dá tu práci a podívá se, kolik nezáplatovaných děr mají oproti RHELu, SLESu nebo Debianu i v důležitých komponentech... A to se vůbec nebavím o tom, že universe je po celé ty roky prakticky netknutý od té doby, co balíčky zkopírují z Debianu.
No, na to se ale tazatel neptal, takže mu to Ubuntu přejme, a zpátky k otázce: vzhledem k popisu předpokládám, že se jedná o řešení, kde bych si ten server asi raději složil sám.
-
tak ses tady vytrolil a bez zase mackat bedary.
-
To bylo na koho?
tak ses tady vytrolil a bez zase mackat bedary.
-
Hotová řešení mají smysl pouze v případě, že k tomu máte rovnou i support, a remote konzoli, což u vlastního řešení musíte řešit nějakým KVMkem. Můj pocit z Vašeho popisu je takový, že by Vám stačil obyčejný desktop, do kterého nastrkáte paměti, RAID kartu a disky. Vzhledem k tomu, že jste ani nezadefinoval jaká má být dostupnost takového řešení, tak asi nemá smysl řešit ani ECC paměti, atp. Rovnou ty desktopy kupte dva a rozběhněte mezi nimi redundanci. Na základě definice toho, co na tom bude běžet, Vám nikdo moc neporadí, protože podle Vašeho popisu Vám můžu doporučit i nějaký větší notebook a budete to mít zároveň i s UPSkou :).
Co se týče "serverů", tak pár tipů:
Např. tahle krabice od Dellu by mohla vyhovovat už v základu: http://www.czc.cz/dell-poweredge-t20-e3-1225-v3-16gb-2x500gb-1x1tb/152034/produkt a budete k tomu mít i NBD od Dellu, což v případě takto definovaných požadavků stejně asi stačí.
Případně do něčeho jako je: http://www.czc.cz/hp-proliant-ml10-g2130-2gb/141314/produkt nastrkejte navíc paměť a disky.
Občas se vyplatí podívat se i na Intel serverovou platformu, vychází to někdy lépe.
Případně SuperMicro...
-
Hotová řešení mají smysl pouze v případě, že k tomu máte rovnou i support, a remote konzoli, což u vlastního řešení musíte řešit nějakým KVMkem.
"Serverová" základovka se dá koupit i samostatně - ale to jsme pak u toho, co jsem psal: tam pak žádný rozdíl v ceně nebude.
Rovnou ty desktopy kupte dva a rozběhněte mezi nimi redundanci.
Jestli jsem to pochopil správně, má to být do nějaké kanceláře. Tam se takováhle redundance většinou nevyplatí, protože nejčastěji stejně odejde disk nebo zdroj, takže tam je buďto redundance na úrovni komponent, nebo je výměna stroje stejně rychlá jako výměna komponenty. A udělat pořádnou opravdovou redundanci (diskový pole, redundantní síť atd. atd.) by se nevyplatilo.
-
A to ma jako vsechno bezet na jednom linuxu? Huh, co je to za garazovku?
Normalne pod to dej VMware a pak si tam nastrkas 8x ty XPcka, 1 samba/print server, 1 mail server a x aplikacnich/db serveru.
-
Protože to lidi dobře znají z desktopu, tak to hodí i na server.
a tak vznikly serverový widle ... hell opened the gates
-
To se chystáš na jednom stroji provozovat poštovní server asi pro 24 lidí (16+8?), tiskový server, osm virtuálních počítačů a tři databázové programy?
No řeknu ti k tomu několik věci. Za prvé chtít po někom vědět jaký si máš koupit hw bez informací o zatížení pošty, virtuálnů a těch záhadných databázových aplikací je cesta do pekla. A za druhé pokud tam poběží vše co píšeš tak bych to odhadl na mašinu tak za 100 tisíc a výš což beru jako skromný nástřel při zemi a jinak se nemá cenu snažit. Ono se ti to asi nezdá, ale na tolik virtuálů a aplikací budeš muset mít několik diskových polí, možná zvážit 10Gb (nebo víc 1Gb síťovek), co se týká paměti a procesoru tam to neni těžké a můžeš jít s 32GB (8x2GB, na poštu 4GB a něco těm programům) a CPU nevim od stolu. A za třetí dělat "vlastní skládačku" na tak důležitý a vytížený server je další hloupost - lepší je koupit něco hotového s opravou u zákazníka.
A za poslední, neřeš to sám protože podle tvého dotazu se to nepovede.
-
vana-hb zas nestraš, "databáze" může klidně znamenat MySQL s jednou transakcí za týden ;) nebo MS Jet nebo jak se to jmenuje, na sambou sdíleném disku ;)
-
Mňo, někdy se nevyplatí šetřit.
Ušetřit = dost možná si rozbít hubu!
-
Podle mě mu radíte overkill. Budeš potřebovat 8*1GB RAM na XPčka a něco málo na ten zbytek. Prostě si kup desktop a k tomu druhý zdroj pro rychlou výměnu při závadě.
desktop, do kterého nastrkáte paměti, RAID kartu a disky
Co je za problém s normální MD RAIDem? Osobně s ním mám lepší zkušenosti než s podivnými proprietárními RAIDy (ovládání přes zabugovaný blob, absence běžných funkcí, u MD možnost prostě strčit disky do jiného Linuxu místo shánění kompatibilního řadiče).
A to ma jako vsechno bezet na jednom linuxu? Huh, co je to za garazovku?
Normalne pod to dej VMware a pak si tam nastrkas 8x ty XPcka, 1 samba/print server, 1 mail server a x aplikacnich/db serveru.
A co je za problém s KVM? :)
-
2Jenda: Jo, to jiste potesi, kdyz se znicehoz nic ten sw raid rozesere. A jen jeho prepocitani pak trva tejden a procak pritom nemuze delat nic jinyho. A ta detekce vadnyho disku, to je taky zuzo.
Mam tu 4 plny racky zeleza ruznyho typu, ve vsem kde sou disky jsou samo HW RAID radice. Jeste se nestalo, ze by to nefungovalo jak ma. Kdyz chcipne disk, rozviti se na nem kontrolka, vytahnu suplik, vrazim zpatky s novym diskem, a nic vic netreba.
A 1GB pro XP ... to je taky rada za vsechny prachy, kdyz ani ty ani pisatel zjevne netusi, co na tom ma bezet. 1GB je tak na holej system. Vmware na 3x 128GB. A RAMka je to, co se nedostava. Pokud se jeden z tech stroju odstavi, je to na hrane. Bezi na tom kolem 30ti virtualu.
Mimochodem, prave proto aby se nemusel shanet zadnej radic se plati support. Nemluve o tom, ze pri trochu normalnim nasazeni mas pole, kde sou ty radice dva. Apropos, 24diskovy pole zvladajici FC/NAS (2,5" sas disky) stoji kolem 200-300k. Rosiritelny samo o dalsi police.
-
Mňo, někdy se nevyplatí šetřit.
Ušetřit = dost možná si rozbít hubu!
A nebo taky usetrit = delat support sam sobe. Taky sem mel stejnou dilemu pred casem, a rozhodl sem se poskladat si server sam. Vysel me ani ne polovinu toho co by stal u HP/Dell (stejny komponenty). Za stejny prachy co sem na to dostal mam ted dva naprosto identicke: jeden bezi v serverovne, druhej "zalozni" mam doma a ten se synchronisuje s hlavnim. Kdyz se neco po*ere, vemu zalozni, zavezu do serverovny a jedu. Downtime maximalne nekolik hodin. Tohle mi nebyl schopnej zajistit zadnej dodavatel...
-
baba - zadnej "zarucenej servis u zakaznika" vam to nespravi za par hodin. taky jsem sel zatim vzdycky cestou "bude to levnejsi, kdyz tak opravim ja". jeden sw raid 5 u zakose uz prezil vymenu zakladni desky, zdroje, a postupne 3 disku. downtime max par hodin.
leda ze by me prejel autobus - a i pak to kdokoliv muze koupit na krame(std zelezo),vymenit,pustit,a jedem dal.
zadny problem.
-
rekl bych, ze autor sice tusi co chce , ale nevi co potrebuje .
do rack serveru nepatru GUI , tudis Ubuntu je tam zbytecne .
na to uplne luxusne staci cisty debian + (treba) virtualBox a do toho dalsi systemy a ma vystarano .
Luxusne stabilni nenarocny a maly system s jednoduchou spravou .
-
kdyz uz RAID , tak jedine softwarovy , ale i RAID je zbytecny, pokud to nema byt HA reseni .
Kdyz totiz zkolabuje raid radic, zalohu stejne nemas . Lepsi je mit backup disk nebo jeste lepe oddeleny backup system
-
a na tohle reseni co pozaduje autor , staci jakakolik "mrtka" strcena nekde pod stolem , vcetne zalozniho napajeni , cena celeho kompletu 10kczk
-
2Jenda: Jo, to jiste potesi, kdyz se znicehoz nic ten sw raid rozesere.
To je pravda, HW RAID se totiž rozesrat nemůže.
A jen jeho prepocitani pak trva tejden a procak pritom nemuze delat nic jinyho.
Máš nějaký divný server. Mně podle syslogu naposledy trval rebuild RAIDu ze 4 2TB disků 7 hodin a 42 minut a server při tom normálně fungoval a rebuild RAIDu z 15 500GB disků 6 a půl hodiny (zhruba 22 MB/s na každý disk). A to je to křáp, nějaký starý dualcore Xeon s PCI-X ARC-1160 (zapojeno jako softraid).
A ta detekce vadnyho disku, to je taky zuzo.
V čem přesně se liší detekce vadného disku u HW a SW RAIDu? A pokud na SW RAID použiješ FS s checksumy (např. ZFS), tak je detekce chyb naprosto bezkonkurenční.
Mam tu 4 plny racky zeleza ruznyho typu, ve vsem kde sou disky jsou samo HW RAID radice. Jeste se nestalo, ze by to nefungovalo jak ma.
To máš dobrý, já už jsem viděl rozbité LSI. Na druhou stranu mám asi 10 strojů s MD RAIDem a taky mi všechno funguje.
Kdyz chcipne disk, rozviti se na nem kontrolka, vytahnu suplik, vrazim zpatky s novym diskem, a nic vic netreba.
Proč že tohle nejde realizovat se SW RAIDem? Jediné, co mi chybí, je driver ke kontrolkám, ale to je tím, že jsem to neřešil.
A 1GB pro XP ... to je taky rada za vsechny prachy, kdyz ani ty ani pisatel zjevne netusi, co na tom ma bezet. 1GB je tak na holej system.
Jak jsme mohli všichni používat XPčka před 12 lety, kdy většina počítačů tolik ani zdaleka neměla?
Vmware na 3x 128GB.
Tak to máš 40 GB RAM na jedny XPčka. Počkat, umí tolik vůbec jejich implementace PAE? :)
A RAMka je to, co se nedostava. Pokud se jeden z tech stroju odstavi, je to na hrane. Bezi na tom kolem 30ti virtualu.
Samozřejmě záleží na tom, co za virtuály tam máš. Já mám virtuály s 256 MB a je to moc a virtuály s 16 GB a je to málo…
Mimochodem, prave proto aby se nemusel shanet zadnej radic se plati support. Nemluve o tom, ze pri trochu normalnim nasazeni mas pole, kde sou ty radice dva. Apropos, 24diskovy pole zvladajici FC/NAS (2,5" sas disky) stoji kolem 200-300k. Rosiritelny samo o dalsi police.
Ale to asi nebude kancelářský SOHO server s rozpočtem 40 litrů, na který se tazatel ptal, že?
-
do rack serveru nepatru GUI , tudis Ubuntu je tam zbytecne .
Na Ubuntu je snad povinné nainstalovat Xka?
na to uplne luxusne staci cisty debian + (treba) virtualBox a do toho dalsi systemy a ma vystarano .
LOL, nejdřív mu zakážeš GUI a pak mu poradíš VirtualBox?
-
na to uplne luxusne staci cisty debian + (treba) virtualBox a do toho dalsi systemy a ma vystarano .
LOL, nejdřív mu zakážeš GUI a pak mu poradíš VirtualBox?
no a proc ne ?
-
Kdyz chcipne disk, rozviti se na nem kontrolka, vytahnu suplik, vrazim zpatky s novym diskem, a nic vic netreba.
Proč že tohle nejde realizovat se SW RAIDem? Jediné, co mi chybí, je driver ke kontrolkám, ale to je tím, že jsem to neřešil.
Jde o zpusob realizace... Zatimco u HW raidu obvykle vysunes vadny disk oznaceny kontrolkou, zasunes novy disk a HW raid radic se postara o zbytek, u SW raidu musis oznacit disk jako failed --fail , pak ho musis odebrat --remove, pak musis novemu disku rict neco o particich, pak ho musis vlozit --add... cas jsou penize, pokud mas 1 raid s 10 disky tak sw raid je dostatecne, pokud ale spravujes nekolik velikych diskovych poli, pak sw raid neni vhodne reseni...
-
pokud mas 1 raid s 10 disky tak sw raid je dostatecne, pokud ale spravujes nekolik velikych diskovych poli, pak sw raid neni vhodne reseni...
radeji pripomenu... tazatel se ptal na 1xRAID s 4xHDD ;)
-
Kdyz chcipne disk, rozviti se na nem kontrolka, vytahnu suplik, vrazim zpatky s novym diskem, a nic vic netreba.
Proč že tohle nejde realizovat se SW RAIDem? Jediné, co mi chybí, je driver ke kontrolkám, ale to je tím, že jsem to neřešil.
Jde o zpusob realizace... Zatimco u HW raidu obvykle vysunes vadny disk oznaceny kontrolkou
Rozsvícená kontrolka je podle mě hlavní výhoda HW raidu s patřičnými šuplíčky na disky. U SW raidu je často problém zjistit který z těch fyzických disků je vlastně ten vadný.
zasunes novy disk a HW raid radic se postara o zbytek, u SW raidu musis oznacit disk jako failed --fail , pak ho musis odebrat --remove, pak musis novemu disku rict neco o particich, pak ho musis vlozit --add... cas jsou penize, pokud mas 1 raid s 10 disky tak sw raid je dostatecne, pokud ale spravujes nekolik velikych diskovych poli, pak sw raid neni vhodne reseni...
Partitions nejsou pod SW raidem nutné, zbytek je u SW raidu velmi jednoduchý. Ale ani ten HW raid to nemá vždycky tak úplně jednoduché jak píšeš, obzvlášť když ten nový disk co tam zasuneš není úplně prázdný ale třeba je odebraný z jiného pole - pak je to buď na reboot a řešení v biosu nebo na zjišťování zda je k dispozici software pro aktuální OS a jak se vlastně používá...
-
Rozsvícená kontrolka je podle mě hlavní výhoda HW raidu s patřičnými šuplíčky na disky. U SW raidu je často problém zjistit který z těch fyzických disků je vlastně ten vadný.
Pokud koupíte SATA/SAS backplany, budete to mít i u SW RAIDu.
-
Jde o zpusob realizace... Zatimco u HW raidu obvykle vysunes vadny disk oznaceny kontrolkou, zasunes novy disk a HW raid radic se postara o zbytek, u SW raidu musis oznacit disk jako failed --fail , pak ho musis odebrat --remove, pak musis novemu disku rict neco o particich, pak ho musis vlozit --add... cas jsou penize, pokud mas 1 raid s 10 disky tak sw raid je dostatecne, pokud ale spravujes nekolik velikych diskovych poli, pak sw raid neni vhodne reseni...
Mně ho to failne samo, removnutí jsem teda nezkoušel. Jinak se všechno může snadno naskriptovat, stačí skript, co se podívá do /dev/disk/by-path/, kde čísla odpovídají šuplíkům, a když se tam něco objeví, tak to přidá.
-
Docela teda koukam kolik lidi tady jeste v produkci pouziva fyzicky servery, matlaj mdadm a vypadky v radu hodin nejsou problem :)
Kdyz uz nemate na vlastni rozumnou infrastrukturu - kvalitni servery, virtualizace, diskove pole, atd. tak si pronajmete VPS. Vyjde to na o hodne min srani (v dusledku i nizsi naklady) a s vetsi dostupnosti nez jste kdykoliv schopni dosahnout vlastnim resenim.
-
Docela teda koukam kolik lidi tady jeste v produkci pouziva fyzicky servery, matlaj mdadm a vypadky v radu hodin nejsou problem :)
Kdyz uz nemate na vlastni rozumnou infrastrukturu - kvalitni servery, virtualizace, diskove pole, atd. tak si pronajmete VPS. Vyjde to na o hodne min srani (v dusledku i nizsi naklady) a s vetsi dostupnosti nez jste kdykoliv schopni dosahnout vlastnim resenim.
do vps se blbe davaj dalsi virtualy... ale jinak souhlas. jen proste stale existuji takovi kteri maji pocit, ze kdyz maji data fyzicky "doma" tak jim je nikdo nemuze vzit.
-
do vps se blbe davaj dalsi virtualy... ale jinak souhlas. jen proste stale existuji takovi kteri maji pocit, ze kdyz maji data fyzicky "doma" tak jim je nikdo nemuze vzit.
Supr, teď ještě zkuste spočítat potřebnou propustnost linky a zpoždění k VPS. To se mi snad zdá...
-
Kdyz uz nemate na vlastni rozumnou infrastrukturu - kvalitni servery, virtualizace, diskove pole, atd. tak si pronajmete VPS. Vyjde to na o hodne min srani (v dusledku i nizsi naklady) a s vetsi dostupnosti nez jste kdykoliv schopni dosahnout vlastnim resenim.
VPS se blbě používá jako fileserver s několika terabajty dat, když nemáš zrovna tlustolinku do netu. Navíc musíš věřit, že si poskytovatel VPS tvoje data nezkopíruje a nebude do nich hrabat.
-
Kdyz uz nemate na vlastni rozumnou infrastrukturu - kvalitni servery, virtualizace, diskove pole, atd. tak si pronajmete VPS. Vyjde to na o hodne min srani (v dusledku i nizsi naklady) a s vetsi dostupnosti nez jste kdykoliv schopni dosahnout vlastnim resenim.
Fajn, beru! Ted mi jeste udelej kalkulaci na vps s ~30GB RAM, ~500GB na SSD/raid1, 2x 1GB nesdilena linka, a 4 cpu-jadra. A kdyz to vyjde mene nez 80€/mesicne (tolik me stoji server-housing plus HW odepsan za 3 roky), pujdu do toho!
-
VPS se blbě používá jako fileserver s několika terabajty dat, když nemáš zrovna tlustolinku do netu. Navíc musíš věřit, že si poskytovatel VPS tvoje data nezkopíruje a nebude do nich hrabat.
Tak zas blbej nejsem, samozrejme neni to na vsechno. Ale prislo mi, ze tady maj fileserver vsichni. A jeste jim na nem bezi nekolik databazi, mailserver,...
-
Docela teda koukam kolik lidi tady jeste v produkci pouziva fyzicky servery, matlaj mdadm a vypadky v radu hodin nejsou problem :)
Kdyz uz nemate na vlastni rozumnou infrastrukturu - kvalitni servery, virtualizace, diskove pole, atd. tak si pronajmete VPS. Vyjde to na o hodne min srani (v dusledku i nizsi naklady) a s vetsi dostupnosti nez jste kdykoliv schopni dosahnout vlastnim resenim.
do vps se blbe davaj dalsi virtualy... ale jinak souhlas. jen proste stale existuji takovi kteri maji pocit, ze kdyz maji data fyzicky "doma" tak jim je nikdo nemuze vzit.
jenze autor to potrebje mit doma / v kancelari ,
tohle tema se zacina malinko ubirat jinym smerem
-
Docela teda koukam kolik lidi tady jeste v produkci pouziva fyzicky servery, matlaj mdadm a vypadky v radu hodin nejsou problem :)
Kdyz uz nemate na vlastni rozumnou infrastrukturu - kvalitni servery, virtualizace, diskove pole, atd. tak si pronajmete VPS. Vyjde to na o hodne min srani (v dusledku i nizsi naklady) a s vetsi dostupnosti nez jste kdykoliv schopni dosahnout vlastnim resenim.
To záleží, kolik toho máte (tera či petabajty dat se v cloudu oproti vlastnímu HW dost prodraží) či co tam chcete provozovat (dedikovaný server jiný zákazník prostě nevydrtí). Je to stejná otázka jako, jestli je pro podnikání lepší sedan nebo náklaďák. Ale je pravda, že mnoho lidí si pořídí ten náklaďák (dedikovaný server), aby měli něco velkého, kdyby náhodou, přičemž ta náhoda nikdy nedorazí.
-
ale i RAID je zbytecny, pokud to nema byt HA reseni . Kdyz totiz zkolabuje raid radic, zalohu stejne nemas . Lepsi je mit backup disk nebo jeste lepe oddeleny backup system
RAID samozřejmě není záloha. RAID je na to, aby systém zůstal v provozu když failne disk (což je na rozumném železe nejčastější závada). Takže smyslem RAIDU je překlenout tu dobu, než fyzicky přineseš a vložíš nový disk.
Taky jde o to, že zálohy neděláš každou sekundu, že. S RAIDem neztratíš žádná data (mimo míň pravděpodobné katastrofy), bez RAIDu ztratíš data změněná od doby poslední zálohy.
Ale tohle je snad základ, který by každý admin měl vědět, ne?!
-
pokud mas 1 raid s 10 disky tak sw raid je dostatecne, pokud ale spravujes nekolik velikych diskovych poli, pak sw raid neni vhodne reseni...
radeji pripomenu... tazatel se ptal na 1xRAID s 4xHDD ;)
To je uplne jedno, 4 diskovej SW raid 5 (4x 1TB) se prepocitava 15+ hodin (kdyz danej stroj nic nedela). Kdyz dela, tak dva dny. Behem ty doby ti muze vklidku zdechnout dalsi disk. HW raid to prepocita za 1/2 casu a CPU to nezere.
Pokud to tedy ma byt primarni zelezo, na kterym bezi neco jinyho nez torrent seedbox, je treba tam tak jako tak mit dalsi disk. Delat ze 4 disku R10 je dneska hovadina, to je lepsi koupit dve SSD.
A samo, opravdu se "vyplati" porizovat smejdy - jako trebas LSI. Ty nefungujou ani kdyz sou novy (prave se mi jeden dostal pod ruce).
2Jenda: investuj 5 sekund casu a prohledej zdejsi diskuse na tema rozjebany SW raid. A pak udelej totez na tema rozjebany HW raid. SW raid NEPOZNA kterej disk je vadnej. Nema totiz jak. To musis detekovat az ty, za pouziti runych tools. HW raid ti navic disk vyradi uz pred tim, nez se posere, protoze si mimo jiny provadi pravidelne testy chybovosti a dalsi ficury. A zase, pokud mas spare, tak ho automaticky nahodi, aniz bys musel nekde neco resit. Maximalne ti prijde mail, ze disk cislo 36 je vadnej a mas ho vymenit.
Ad garance. Pochopitelne zadny garance nezarucujou vubec nic. V pricipu vubec nema smysl resit cokoli lepsiho nez NBD, protoze to stejne neznamena, ze zavada bude odstranena. Pokud clovek potrebuje zajistit provoz, musi mit rezervni HW.
Ad ceny. V pripade Dellu (a dalsich) je 50% ceny webu zaklad pro jednani o cene - pri nakupu JEDNOHO stroje. Pokud existuje i jen hypoteticka moznost ze by firma tech stroju chtela koupit vic nebo dokonce spolupracovat dlouhodobe, da se dostat i pod 30%. Mam tu trebas zrovna pred sebou nabidku na stroj za cca 130k. Webova cena je nekde kolem 300k. A pochopitelne, jako bonus je mozny k tomu stroji ziskat (pokud je treba) serverovy widle, prakticky gratis.
-
ale i RAID je zbytecny, pokud to nema byt HA reseni . Kdyz totiz zkolabuje raid radic, zalohu stejne nemas . Lepsi je mit backup disk nebo jeste lepe oddeleny backup system
RAID samozřejmě není záloha. RAID je na to, aby systém zůstal v provozu když failne disk (což je na rozumném železe nejčastější závada). Takže smyslem RAIDU je překlenout tu dobu, než fyzicky přineseš a vložíš nový disk.
Taky jde o to, že zálohy neděláš každou sekundu, že. S RAIDem neztratíš žádná data (mimo míň pravděpodobné katastrofy), bez RAIDu ztratíš data změněná od doby poslední zálohy.
Ale tohle je snad základ, který by každý admin měl vědět, ne?!
Predevsim obnova zalohy muze byt na par (desitek) hodin. Takze provozovat ve firme (i jednocloveci) cokoli bez raidu, kdyz na tom firma stroji ...
-
Predevsim obnova zalohy muze byt na par (desitek) hodin. Takze provozovat ve firme (i jednocloveci) cokoli bez raidu, kdyz na tom firma stroji ...
Ty tady pořád hážeš nějaký hodiny, terabajty a jánevímco. Prosímtě, normální kanceláře o 16ti počítačích mají třeba 100G dat. Na ZFS zesynchronizované za (plácnu) 15minut, záloha obnovená rychlostí třeba 5MBps ~ půl hodiny.
-
Bude to tak, že si autor uvědomil covplácnul za blbost auž se neozve. A zbytek osazenstva diakutuje co na ten imafinární server s neznámým požadavkem na aplikace a výkon koupit za hardware ... .
K tomu raidu sv vs hw bych dodal, že i na sw raidu se nwkam musí ty disky připojit. Když neberu diletantsví s různýma řadičema za 500 tak základní raidový vs neraidový řadič od adaptecu stojí skoro stejně. HW raid je mnohem jednodušší na správu, swmraid má víc nastavení ... pro malé servery bych šel s jednoduchostí hw raidu.
http://www.alza.cz/adaptec-6805h-bulk-d452795.htm
http://www.alza.cz/adaptec-6805e-bulk-d457860.htm
-
To je uplne jedno, 4 diskovej SW raid 5 (4x 1TB) se prepocitava 15+ hodin (kdyz danej stroj nic nedela).
Už jsem tu psal, že se mi RAID6 ze 4 2TB disků přepočítával 7 hodin a 42 minut. Ostatně proč ne? 70 MB/s zvládne i notebookový disk a uXORovat 280 MB/s je pro dnešní procesory hračka.
2Jenda: investuj 5 sekund casu a prohledej zdejsi diskuse na tema rozjebany SW raid. A pak udelej totez na tema rozjebany HW raid.
Taky by to mohlo být uživateli a počtem uživatelů :). Můžeš mi nějaký problém ukázat, já žádný nenašel kromě jednoho kde má tazatel nějakou divnou distribuci (http://forum.root.cz/index.php?topic=4797.0).
SW raid NEPOZNA kterej disk je vadnej. Nema totiz jak. To musis detekovat az ty, za pouziti runych tools. HW raid ti navic disk vyradi uz pred tim, nez se posere, protoze si mimo jiny provadi pravidelne testy chybovosti a dalsi ficury.
Můj SW RAID pozná, který disk je vadný, když vyhodí error při čtení sektoru nebo neodpoví. Pokud error nevyhodí a jenom vrátí špatná data, nepozná to ani tvůj HW RAID. Můj SW RAID to pozná, pokud je to ZFS nebo btrfs.
Můj SW RAID provádí každý měsíc test konzistence. Je to v CentOSu a Debianu default. A SMART to umí posílat mailem taky.
A zase, pokud mas spare, tak ho automaticky nahodi, aniz bys musel nekde neco resit.
Můj SW RAID spare nahazuje samozřejmě automaticky taky. Proboha, to si fakt myslíš, že spare je v mdadm jenom pro parádu a musí to admin spustit ručně?
-
HW raid je mnohem jednodušší na správu
JJ, jenom se stačí naučit používat proprietární utilitu, která nepodporuje nové distribuce a každý výrobce si bastlí vlastní, místo použití nástrojů v distribuci. Jednoduchost.
Naopak bych u takové malé firmy čekal, že si koupí třeba dvouterové disky a za dva roky část z nich nahradí šestiterovými a budou se rozhlížet, jak že jim ten HW RAID umožní využít ten zbytek kapacity. No nijak.
-
http://www.alza.cz/adaptec-6805h-bulk-d452795.htm
http://www.alza.cz/adaptec-6805e-bulk-d457860.htm
Btw. tak 4-6 portů bývá na desce a 12 TB místa tipuju že tazateli bohatě postačí.
-
Trochu bych mírnil nadšení:
V HW RAIDu vždy funguje výměna HDD tím způsobem, že cvičená opice vytáhne HDD s červenou kontrolkou a vrazí tam nový, zbytek udělá HW řadič.
Dosáhnout stejné funkčnosti se SW RAIDem dá dost práce a stejně to někdy selže.
-
Byly zde uvedeny pouze výhody HW RAID řešení oproti SW RAIDu. Dovolím si upozornit i na jeho nevýhody:
1) HW RAID řadič na samostatné kartě znamená mít minimálně jeden identický navíc pokud je na motherboardu tak to samé platí pro něj. Konfigurace RAID pole je binární a proprietární a tudíž nepřenositelná a to obvykle i na jinou řadu téhož výrobce.
Porucha RAID řadiče aniž máte po ruce identický kus HW znamená, že budete data obnovovat ze záloh i když máte disky v pořádku.
Argumentovat tím, že k poruše nedojde je trochu krátkozraké, prostě HW RAID řadič je single point of failure.
Jakýkoliv opensourcový SW RAID obnovíte na jakémkoli železe, prostě jen přendáte disky (za předpokladu, že náhradní stroj má dostatečný počet např. SATA kanálů apod.) a jste velmi rychle schopni zprovoznit výpadek HW a můžete pak v klidu čekat na servis NBD u serveru v poruše. Já např. používám servery od Dellu s NBD servisem a případný embedded RAID řadič u nich z výše uvedených důvodů nepoužívám a deaktivuji ho.
2) Dále nástroje na správu a monitoring HW RAID řadiče jsou málokdy dostupné z opensourcových OS, u SW RAIDu jde o součást OS.
3) Možnosti konfigurovatelnosti RAID polí jsou u HW RAID řešení oproti SW menší. Těžko u nich uděláte např. RAID po partitions nebo na mixu různě velkých disků (aniž byste o nějakou kapacitu nepřišli) či mix RAID 1 RAID 5 apod.
SW RAID je pomalejší HW-ho (tento rozdíl se zmenšuje s rostoucím výkonem CPU a počtem jader i rychlostí sběrnic pro disky a nástupem SSD) a klade vyšší nároky na znalosti adminů :-)
-
...Konfigurace RAID pole je binární a proprietární a tudíž nepřenositelná a to obvykle i na jinou řadu téhož výrobce...
Prenasel sem disky z LSI-9211 (levnej raid0/1/10 cip 2008) na 9266 (2208), bez problemu. V podstate sem vubec nedoufal ze to pujde a byl pripravenej to pole vytvorit znovu, jenze opravdu to slo, bez jakehokoli manualniho zasahu. Ale nevim jestli by se takhle dala prenest konfigurace ze stare serie 8xxx na 9xxx (jestli si dobre pamatuju, nekde na LSI-webu sem cetl ze to nejde). Samozrejme, v pripade ruznych vyrobcu se o tom nema smysl bavit, to jiste nepujde.
Raid po "partitions" (u hw-raid spis po castech celkove kapacity) je samozrejme mozne udelat take na hw-radici (rozhodne to jde na Avago/LSI). Taky ruzne velke disky, ruzne typy disku, nebo "hybridni" raid (hdd+ssd). Mozna nake jine veci na hw-raid nejdou, nevim. Zatim mi vzdycky stacil. Jo a pekna vyhoda je vlastni cache: clovek muze vypnout disk-cache v OS a usetrit si nakej ten GB pro jine veci. Taky je to bezpecnejsi (slusnej hw-radic ma obvykle svoji pamet zalohovanou baterii nebo kondensatorem)...
Samozrejme, svet neni cerno-bilej. Jako HW-, tak i SW-raid ma sve vyhody/nevyhody.
-
Predevsim obnova zalohy muze byt na par (desitek) hodin. Takze provozovat ve firme (i jednocloveci) cokoli bez raidu, kdyz na tom firma stroji ...
Ty tady pořád hážeš nějaký hodiny, terabajty a jánevímco. Prosímtě, normální kanceláře o 16ti počítačích mají třeba 100G dat. Na ZFS zesynchronizované za (plácnu) 15minut, záloha obnovená rychlostí třeba 5MBps ~ půl hodiny.
Jasne, a ten novej disk se tam teleportuje ...
-
...Konfigurace RAID pole je binární a proprietární a tudíž nepřenositelná a to obvykle i na jinou řadu téhož výrobce...
Prenasel sem disky z LSI-9211 (levnej raid0/1/10 cip 2008) na 9266 (2208), bez problemu. V podstate sem vubec nedoufal ze to pujde a byl pripravenej to pole vytvorit znovu, jenze opravdu to slo, bez jakehokoli manualniho zasahu. Ale nevim jestli by se takhle dala prenest konfigurace ze stare serie 8xxx na 9xxx (jestli si dobre pamatuju, nekde na LSI-webu sem cetl ze to nejde). ...
Tam, kde s HW řadičem ani nedoufáte a jste překvapen, že to jde, máte u SW RAIDu jistotu, že to jde. Jako admin mám rád jistotu a ne překvapení, byť ve vašem případě to byla ta dobrá :-)
Raid po "partitions" (u hw-raid spis po castech celkove kapacity) je samozrejme mozne udelat take na hw-radici (rozhodne to jde na Avago/LSI). Taky ruzne velke disky, ruzne typy disku, nebo "hybridni" raid (hdd+ssd).
Zrovna u nějakého LSI-čka jsem se před pár roky setkal s tím, že u dvou různě velkých disků v RAID 1 nešla nakonfigurovat u toho většího ta zbylá disková kapacita jako single disk/část a tudíž zůstala nevyužitá. U SW RAID samozřejmě není problém.
Proč je potřeba RAID po particích? Například u zfailovaného HW se SW RAIDem vezmu jeden disk a mám na jakémkoli PC přístup k datům a pokud je primární se systémem, tak ho přehodím do jiného PC a jedu. U disku rozsekaneho HW managerem na kousky se k datům jednoduše nedostanete natož abyste z něj nabootovali.
Kdo zažil řešení HW havárií, ocení možnost workaroundů/improvizace a tím pádem rychlého vyřešení = zprovoznění výpadku, tady není čas na experimenty. V tomto se IMHO flexibilitě opensourcového SW RAIDu nic nevyrovná a i proto ho osobně preferuji.
Taky je to bezpecnejsi (slusnej hw-radic ma obvykle svoji pamet zalohovanou baterii nebo kondensatorem)...
IMHO server by měl být na UPS a tato redundance zálohy dat diskového bufferingu mi v tom případě přijde v podstatě zbytečná.
Dál jsem nezmínil další nedostatek HW řešení a tou může být v některých případech výše ceny samotného "slušného" HW RAID řadiče v porovnání s tím, co mi to přinese.
-
Predevsim obnova zalohy muze byt na par (desitek) hodin. Takze provozovat ve firme (i jednocloveci) cokoli bez raidu, kdyz na tom firma stroji ...
Ty tady pořád hážeš nějaký hodiny, terabajty a jánevímco. Prosímtě, normální kanceláře o 16ti počítačích mají třeba 100G dat. Na ZFS zesynchronizované za (plácnu) 15minut, záloha obnovená rychlostí třeba 5MBps ~ půl hodiny.
Jasne, a ten novej disk se tam teleportuje ...
Pokud by sis přečetl příspěvek výše, tak bys zjistil, že se ten disk nahodí ze spare a ano to funguje i SW RAIDu.
Jo a pak bude třeba ten zfailovaný disk fyzicky vyměnit opět naprosto stejně jako u HW RAIDu.
-
Predevsim obnova zalohy muze byt na par (desitek) hodin. Takze provozovat ve firme (i jednocloveci) cokoli bez raidu, kdyz na tom firma stroji ...
Ty tady pořád hážeš nějaký hodiny, terabajty a jánevímco. Prosímtě, normální kanceláře o 16ti počítačích mají třeba 100G dat. Na ZFS zesynchronizované za (plácnu) 15minut, záloha obnovená rychlostí třeba 5MBps ~ půl hodiny.
Jasne, a ten novej disk se tam teleportuje ...
Pokud by sis přečetl příspěvek výše, tak bys zjistil, že se ten disk nahodí ze spare a ano to funguje i SW RAIDu.
Jo a pak bude třeba ten zfailovaný disk fyzicky vyměnit opět naprosto stejně jako u HW RAIDu.
Přečti si, na co reaguješ. Mluví se o praštěném návrhu provozovat server úplně bez RAIDu s tím, že se tam v případě potřeby prostě dá záloha.
-
Jasne, a ten novej disk se tam teleportuje ...
Reagoval jsem čistě na tvoje tvrzení, že obnova ze zálohy může trvat desítky hodin. V tom prostředí, o kterém se bavíme, to nejspíš nebude pravda. Pořád tam taháš svoje zkušenosti z úplně jinýho prostředí.
(Tím neobhajuju provozování serveru bez RAIDu, to jsem snad už předtím napsal jasně, ne?!)
-
Predevsim obnova zalohy muze byt na par (desitek) hodin. Takze provozovat ve firme (i jednocloveci) cokoli bez raidu, kdyz na tom firma stroji ...
Ty tady pořád hážeš nějaký hodiny, terabajty a jánevímco. Prosímtě, normální kanceláře o 16ti počítačích mají třeba 100G dat. Na ZFS zesynchronizované za (plácnu) 15minut, záloha obnovená rychlostí třeba 5MBps ~ půl hodiny.
Jasne, a ten novej disk se tam teleportuje ...
Pokud by sis přečetl příspěvek výše, tak bys zjistil, že se ten disk nahodí ze spare a ano to funguje i SW RAIDu.
Jo a pak bude třeba ten zfailovaný disk fyzicky vyměnit opět naprosto stejně jako u HW RAIDu.
Přečti si, na co reaguješ. Mluví se o praštěném návrhu provozovat server úplně bez RAIDu s tím, že se tam v případě potřeby prostě dá záloha.
Četl jsem to pozorně, ale možná mi něco uniklo. Pochopil jsem to takto:
Mirek Prýmek:, kterého cituji píše o syncu 100GB filesystému na ZFS v SW RAIDU za 15 minut a o obnovení ze zálohy rychlostí cca. 5MBps za půl hodiny. Já reaguji na rekaci j: na Mirek Prýmek, že se tam ten disk teleportuje sám, což jsem pochopil, že se týká SW vs HW RAIDu a nikoliv obnovení ze záloh na řešení bez RAIDu (které je samozřejmě praštěné).
-
Jasne, a ten novej disk se tam teleportuje ...
Reagoval jsem čistě na tvoje tvrzení, že obnova ze zálohy může trvat desítky hodin. V tom prostředí, o kterém se bavíme, to nejspíš nebude pravda. Pořád tam taháš svoje zkušenosti z úplně jinýho prostředí.
(Tím neobhajuju provozování serveru bez RAIDu, to jsem snad už předtím napsal jasně, ne?!)
Tak vidím dle vyjádření autora příspěvku, že jsem to pochopil špatně :-(
-
píše o syncu 100GB filesystému na ZFS v SW RAIDU
ZFS (resp. zpool) je samo o sobě sw raid. Nad hw raidem se ani nemá provozovat. Konkrétně tímhle jsem chtěl naznačit, že synchronizace celého disku (včetně nevyužitých oblastí) není nutnou vlastností sw raidů obecně a tímpádem ani neplatí, že sw raid se nutně musí synchronizovat tak astronomicky dlouho jak j píše. Je to jenom vlastností konkrétní implementace sw raidu.
Prostě rozporoval jsem konkrétní jednotlivosti, o kterých j píše, nic víc.