Fórum Root.cz
Hlavní témata => Windows a jiné systémy => Téma založeno: blacknoise 25. 10. 2017, 17:47:00
-
Zdarec, mám průzkumný dotaz - jak zálohujete 5, 10 nebo třeba nad 30 microsoftích stanic?
Mám tu i netvárné uživatele, co mají na ploše 150GB a připadá jim to v poho.
-
Zdarec, mám průzkumný dotaz - jak zálohujete 5, 10 nebo třeba nad 30 microsoftích stanic?
Mám tu i netvárné uživatele, co mají na ploše 150GB a připadá jim to v poho.
Můžu doporučit, jak to dělám já. Stanice mají zásadně plochu a roaming profile přes redireceted folders nasměrované na DFS a na server. Storage na serveru je deduplikovaná (NTFS), šetří to přes 30 % místa.
Zálohuji pak jedině server pomocí Veeam Backup. Ve Veeam je dobré nastavit dedupe friendly kompresi a zarovnání bloků. Pak se dá i záloha posílat na deduplikované úložiště, a tam je deduplikační míra ještě daleko větší. Toto nastavení umožňuje mít poměrně hodně snapshotů zpětně.
Data na stanici nemají co dělat, to děsně prodražuje správu. Stanice, když se náhodou něco stane, tak jde bez milosti do boot options, a přes PXE se natáhne po síti instalace a za pár (desítek) minut je komp znovu připravený (nějaké ovladače řeším ručně, nemám tolik stanic, aby se vyplatilo je integrovat do deploymentu).
-
Zdarec, mám průzkumný dotaz - jak zálohujete 5, 10 nebo třeba nad 30 microsoftích stanic?
Mám tu i netvárné uživatele, co mají na ploše 150GB a připadá jim to v poho.
HP microserver nebo lepsi HW, do toho vrazim 4 ci vice NASovych disku, RAMky staci malo, ale davam 4GB/8GB
pak to zapecu freebsd11kou (zfs + komprese) a navrch ozdobim urbackup serverem
pripada mne to rychlejsi a bezpecnejsi, nez uzivatele presvedcovat, ze data maji byt na serveru/nasu
takovi pani arkitekti jsou umelci s myslenkami kdesi v oblacich a nehodlaji se snizovat a resit pismenka v PC
-
pripada mne to rychlejsi a bezpecnejsi, nez uzivatele presvedcovat, ze data maji byt na serveru/nasu
takovi pani arkitekti jsou umelci s myslenkami kdesi v oblacich a nehodlaji se snizovat a resit pismenka v PC
Pomocí doménových politik přesměrování plochy a dokumentů na server vynutíte.
Odeberete uživateli Admin práva k místnímu počítači.
Uživatel pak nemá jinou možnost, než data ukládat např. na plochu či do Dokumentů - tím pádem na server.
Je to velmi jednoduché a velmi účinné.
-
a malý počet stanic, když máte třeba jen NAS?
Zatím mi na tohle stačil powershell, robocopy a stínové kopie na outlookovské pst
-
a malý počet stanic, když máte třeba jen NAS?
Zatím mi na tohle stačil powershell, robocopy a stínové kopie na outlookovské pst
Z mého pohledu se vyplatí doména někde už od 5 stanic výš, ale s jistotou od 10, a to předpokládám, že máte, když řešíte zálohování systematicky.
Bez domény Vám moc neporadím, protože všechny profesionální zálohovací řešení se zaměřují hlavně na servery (stanice řeší jen okrajově), a jejich cena je patrně nepřiměřená situaci bez domény.
Poměrně vhodnou alternativou pro malé skupiny je cloud, ale v praxi to naráží na prostředí, kdy např. určité programy či periferie na cloud nejsou připravené. Pak zbývá hybridní řešení, ale to už je dražší, než čisté on premises.
-
Data na Samba serveru.
Důležité PC (co nás živí) mají druhý, odpojený harddisk s kopií systému.
Disky čas od času přehodím (jednou za půl roku...).
V případě výpadku přepojím disky, data jsou na serveru.
Oprava je otázka minuty, přehodím disky, jedu. :)
-
Profil, aplikace a další drobnosti jsou v doméně, dokumenty převážně na onedrive (interním), zbytek se backupuje přes acronis na vlastní servery pouze pokud je daný uživatel přopojený kabelem k síti, což většina dělá často.
-
veeam endpoint
-
Vlastni script, ktery vse ze stanic zalohuje pomoci rsync nebo rsync+ssh na muj server. Tu drhou variantu pouzivam mimo lokalni sit. Jede to automaticky denne/pri logonu a uzivatel o tom vubec nevi. Mam to takhle na 16 windowsovych desktopech.
-
Jednoduche amaterske reseni:
stare PC s disky a linuxem, kam se sypou data
na win stanicich winscp, ktere umi celkem pekne skriptovani a ma prikaz na synchronizaci
mam proste na plose odkaz na CMD soubor, ktery pusti winscp script, ktery vybrane adresare zkopiruje (sesynchronizuje) na linuxovy stroj. poustim si to sam, kdyz se mi chce, po 1GB siti je behem jednotek minut hotovo (v prumeru).
velmi primitivni, ale rychle rozjete a je to lepsi jak dratem do oka
-
No, taky jsem se nad tím dlouho zamýšlel. Nakonec to dopadlo tak, že vše musí být na serveru a co není v profilu (a ten je cestovní), mají prostě smůlu.
Postupem času jsem jim nabídl možnost synchronizovat cokoliv/odkudkoliv do NextCloudu (před tím OwnCloudu) přes agenta běžícího na jejich NTB. Tím se v podstatě zálohování vyřešilo samo. Kdo má NTB a nenastaví si data zálohovat do cloudu, jeho problém.
Nejsem chůva a ti lidé mají volební právo. Já jim dám prostředek a poskytnu pomoc, ale rozhodnutí využít/nevyužít je na nich.
PS: Maily jsou na serveru a mají pouze lokální kopii ...
-
Owncloud / Nextcloud - to je tak na experimentální provoz s tím, že si za data zodpovídá uživatel.
Někde jsem měl na zálohy NASy Synology, ty to přestaly zvládat výkonově, a ty jejich SW uměly taky pěkně na**at.
Nextcloud jsem taky provozoval, ale brzo jsem vystřízlivěl.
Mám i nějaké organizace pod městem, které na IT nemají peníze(první místo kde se škrtá) a smečku uživatelů, co jsou naprosté mimózky. I když odkývou, že se o data budou starat sami(odmítl jsem to dělat), tak je jim to fuk - mají se na koho vymluvit.
Smůla je, že jsou to mrcky po 5 mašinách, sem tam nad 15, pak 2x nad 30. Prachy na AD/doménu nejsou - práce strašná. IMAP na hostingu(s výhledem na prů*er - jim to nevadí / za své jim to kupovat nebudu). Drtivou většinu mailů beru z pop3, abych měl data u sebe. IMAPu nevěřím, dělalo to problémy a nevěřil jsem ani zálohám.
Z těch fušeřin je mi zle - nemůžu nic dělat pořádně.
...ale naučilo mě to PowerShell a WB-script :D
-
Po peripetiich s Baculou a ruznymi DIY resenimi jsem skoncil u BURP(http://burp.grke.org/).
- jednoduche na konfiguraci, zarovne dost flexibilni
- pro ukladani pouziva jenom filesystem, zadna DB
- client/server model, podpora lin/win stanic, zaloha iniciovana z klienta
- male HW naroky
- volitelne sifrovani pri prenosu, shaping aj.
- momentalne zalohovano asi 2.5t z 50+ stanic
- schopnost postupne na nekolikrat zazalohovat velke objemy dat, napr NTB s 200g v uzivatelskem profilu
- aktivne vyvijene
(tyka se verze 1.x, s 2.x nemam zkusenost)
-
Mám i nějaké organizace pod městem, které na IT nemají peníze(první místo kde se škrtá) a smečku uživatelů, co jsou naprosté mimózky. I když odkývou, že se o data budou starat sami(odmítl jsem to dělat), tak je jim to fuk - mají se na koho vymluvit.
Smůla je, že jsou to mrcky po 5 mašinách, sem tam nad 15, pak 2x nad 30. Prachy na AD/doménu nejsou - práce strašná. IMAP na hostingu(s výhledem na prů*er - jim to nevadí / za své jim to kupovat nebudu). Drtivou většinu mailů beru z pop3, abych měl data u sebe. IMAPu nevěřím, dělalo to problémy a nevěřil jsem ani zálohám.
Z těch fušeřin je mi zle - nemůžu nic dělat pořádně.
Pak bych rizika aspoň snižoval. Na místo nefungujícího přenášení zodpovědnosti na uživatele, oznámil bych jim, jaká místa jsou zálohovaná, a jednoducho směrnicí bych jim to oznámil. Až by přišel průser, nechal bych na zěmstnavateli, jestli pracovníka postihne, nebo jeslti odsouhlasí zlepšení zálohování, nebo jestli de facto řekne, že současný systém mu vyhovuje. Nic lepšího nevymyslíte.
Sdílím Vaši obavu, že přes všechna tato opatření je taková zakázka na vodě, při prvním průšvihu to stejně odnesete Vy.
-
BURP (http://burp.grke.org/).
To nevymyslíš... ;D ;D ;D :P :P :P
(https://www.oddee.com/wp-content/uploads/_media/imgs/articles2/a96682_peecola.jpg)
-
RAMky staci malo... (zfs + komprese)
Jako nejsem znalec, ale neni to tak, ze prave ZFS by uvitalo a dokazalo uzit RAM co nejvic?
-
RAMky staci malo... (zfs + komprese)
Jako nejsem znalec, ale neni to tak, ze prave ZFS by uvitalo a dokazalo uzit RAM co nejvic?
ZFS potřebuje RAM na dvě věci - na cache/prefetching a na deduplikaci.
Doporučuje se 4 GB RAM jako základ vůbec pro ZFS, ale lze provozovat i s menší RAM. (https://wiki.freebsd.org/ZFSTuningGuide).
Na kompresi za běhu (LZ4) není potřeba ani dramaticky moc CPU, ani moc RAM.
Na deduplikaci je potřeba naopak hafo RAM.
Osobně bych se na ZFS vykašlal, pokud nevyužijete nějakou jinou jeho funkci, a neodůvodní se tím vyšší spotřeba paměti.