31
Server / Re:SAN - profesionální řešení okolo 50 tisíc, resp. do 100 bez disků
« kdy: 24. 03. 2021, 11:24:08 »
Ono CEPH je primárně block storage a vše ostatní je postavené nad tím. Nativně exportuje block device.
Proto je tam i rozhraní kompatibilní s S3 API a Swift API
V tomhle budgetu to nedává smysl, protože rozumná funkcionalita je tak od 5+ serverů.
Systém replikace připomíná NoSQL databáze jako Cassandra, takže škáluje donekonečna a jeho limit asi bude jen crushmap (mapa clusteru, která musí být přítomná v každém stroji).
Disková kapacita a jeho výkon se dynamicky mění dle připojených serverů - není třeba ruční zásah.
Replikaci lze měnit v reálném čase (výchozí je 3/2) - data jsou na minimálně 3 lokalitách (serverech) a minimálně 2 musí potvrdit zápis.
Filesystém nepoužívám, ale dle dokumentace je to POSIX kompatibilní a tedy vlastní implementace FS
Proto je tam i rozhraní kompatibilní s S3 API a Swift API
V tomhle budgetu to nedává smysl, protože rozumná funkcionalita je tak od 5+ serverů.
Systém replikace připomíná NoSQL databáze jako Cassandra, takže škáluje donekonečna a jeho limit asi bude jen crushmap (mapa clusteru, která musí být přítomná v každém stroji).
Disková kapacita a jeho výkon se dynamicky mění dle připojených serverů - není třeba ruční zásah.
Replikaci lze měnit v reálném čase (výchozí je 3/2) - data jsou na minimálně 3 lokalitách (serverech) a minimálně 2 musí potvrdit zápis.
Filesystém nepoužívám, ale dle dokumentace je to POSIX kompatibilní a tedy vlastní implementace FS
Pokud se nám na tom v posledních letech někdy něco podělalo, tak to byly servery se sdíleným externím SAS polem (GFS2 filesystém), když nějak blbě lehnul některý z řadičů v řádu měsíc-dva po skončemí záruky na HW. :-)
...RedHat GFS2 pokud vím řeší hlavně mount téhož DAS zařízení/svazku na více hostitelích paralelně. Kdysi jsem na to koukal, tuším se to tvářilo zhruba jako EXT3 s dodělaným vícenásobným mountováním a nějakou vzájemnou synchronizací hostitelů. Redundanci toho DAS zařízení GFS2 neřeší = ten box je single point of failure, ledaže bude mít uvnitř dva řadiče se vzájemnou synchronizací na blokové vrstvě. Je to tak?
Citovaný "incident" se skonáním řadiče... to jenom odpadl konkrétní server, nebo se nějak hnusně zbořil FS ?
Představuju si, že CEPH se tváří cca jako Samba, ale zároveň replikuje data mezi více storage uzlů. Případně nad tímto základem umí emulovat i blokové zařízení.
a jinak moje zkušenost je taková, že SSD disk vám obvykle nereportuje chybu (může se lišit od modelu).
je třeba se z toho nehroutit. USB je prostě o trošku horší. Praktické testy ukazují, že to lze. Otázkou je na co to je vhodné.