ahoj, dekuju za odpoved
1) hrat si s konfiguraci stroju nebylo potreba
ted presne nevim jak to je, svuj maly testovaci cluster jsem si rozbil a nemam naladu to ted opravovat. jedu na fejkovem single node clusteru. nevim jak se to s konfiguraci ssh aby na sebe stroje videly, konfigurace souboru mam pocit HADOOP_HOME/etc/hadoop/slaves a este neco?
jinak ta veta na me dela dojem ze konfigurace nebyla
zadna pominu-li to ze musis mit vytvoreneho uzivatele, nainstalovany balicek s javou a nakopirovany hadoop jako takovy a nastavene promenne v .bashrc
2) adminum to bylo jedno, protoze na zprovozneni hadoop staci jen uzivatelske opravneni
jo, tam mam pocit staci vytvorit obycejneho uzivatele pod kterym to jede. pak to chce nejaky tool kterym node nahodim nebo vypnu (pokud se nepletu)
3) o instalaci a konfiguraci na jednotlive uzly se staral asi 20 radkovy rucne delany skript, ktery si stahl a nastavil veci podle master-uzlu
podelil by jsi se o ten skript?
Jedine, co delalo problem, byly (sveho casu) 100Mbs linky v nekterych castech site a "relativne" pomale desktopove disky.
s tim se pocita a "nevadi" to. nebude to zadne produkcni prostredi na kdovi jake veci...
Proc k tomu shanet pet kolegu a stary hardware? Veci pro Hadoop jdou bezproblemu odladit na jednom desktopu a pak vyskalovat na cluster jenom zmenou nastaveni. Na prvni prototyp map/reduce funkci staci Python, ale pokud chce clovek vytahnout z toho neco vic, bude muset nakonec sahnout minimalne po Jave. Ale opet to neni nic, co nejde vyzkouset a odladit na desktopu a pak skalovat podle potreb.
ano, duvod proc do toho fusuju je, ze par let programuju v jave a hadoop se tvari byt javovy, bez ohledu na to, ze pro nej muzu psat klidne v pythonu... tech 5 kolegu byl priklad pro pana Prymka, ktery naznacoval ze tu administraci zprasim. urcite ma asi pravdu. jedine co se mi k dnesnimu dni dari je pouze nainstalovat hadoop 2.2.0 a 2.4.0 coz jsou posledni stabilni releasy. zadnou extra konfiguraci asi zatim neplanuji, samotna instalace se mi uplne snadna nezda (mluvim o sobe).