reklama

Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Témata - PCnity

Stran: [1]
1
Server / Knot DNS: definice čtvrté subdomény
« kdy: 12. 02. 2018, 15:22:36 »
Zdravim,

Mam drobny problem s KNOT authoritativnym serverom... Prvy raz potrebujem nastavit specificky A zaznam pre domenu 4. radu, cize:

dom4.dom3.dom2.tld

skusal som pridat do zonoveho zuboru pre dom2.tld zaznam:

dom4.dom3 A 10.10.10.10

Ale, zonovy config sa neloadne, lebo: error: [dom2.tld.] zone loader, error in zone, file '/etc/knot/zones/dom2.tld.zone', line 75 (invalid time unit)

Mam vytvorit novu zonu len pre dom3.dom2.tld? Ide o par zaznamov... Hladam zbytocne nekomplikovane riesenie.
Dakujem!

2
Software / Jaký service desk pro malou firmu?
« kdy: 21. 08. 2017, 01:19:34 »
Zdravim,

Mate nejaky tip na Service Desk pre small business? Ked som sa naposledy pytal na doku, vela ludi odporucilo confluence a ta sa nam aj osvedcila... Ale JIRA Service Desk je pre nas nedostatocny a zaroven predrazeny.

1) Self hosted
2) Idealne one time fee s nejakym casovo obmedzenym supportom < 1000 Eur
3) Potrebujem automaticke spracovanie emailov
4) Funkcny state machine a custom views pre jednotlive akcie (definovany proces, presne definovatelne prechody stavov zo strany agenta aj customera)

Teraz mam nahodeny OTRS a nakonfigurovany process... Cize customer si vytvori "new" ticket, agent ho musi accept/reject/(delete), nasledne je "open", potom ho agent musi niekomu pridelit (in progress), potom sa niekedy stae "resolved" a customer zase musi acceptnut alebo rejectnut solution.

V zasade mi to pride ako celkom ITIL standardny process, ale uz v OTRS neviem dostat emailove tickety do tej queue tak, aby sa mi v agent interface zjavili ako new.

Taktiez mi vadi, ze v otrs ma kazdy article svoj subject... Pride mi to uplne mimo. Toto som si zeditoval v src, tak ze subject sa mi teraz vyplna automaticky "ticket xxx has been updated to state yyy by zzz", ale je to hacky riesenie a neprezije update.

Co pouzivate na customer support?
Dik.

PS: Sme 4 co obcas riesime nejaky ticket... Ale nepacia sa mi licencie ako Jira SD, kde 3 agenti stoja 10 $ rocne a 5 uz 1500 $.

3
Sítě / IPv4 a Multihoming
« kdy: 10. 08. 2016, 15:22:01 »
Zdravim,

Snazim sa zvysit redundanciu nasich sluzieb, tym ze pridame dalsie geograficky oddelene data centrum (Slovensko, Nemecko). K tomuto som si uz zabezpecil registraciu za LIRa a vlastny IPv4 subnet v RIPE.

(PLS, ak pisem blbosti, upozornite ma na to, nie som ani z daleka expert v tejto oblasti)

Ak som spravne pochopil pravidla, najmensia routovatelna jednotka na internete je /24 subnet, kedze kazdy dalsi ASN zvacsuje uz teraz privelku globalnu routovaciu tabulku.

Z toho mi vyplyva, ze by sa dali vytvorit 3 ASN, potom dva /24 subnety routovat fixne cez providera A do DC A (primarne), jeden /24 fixne announcovat cez providera B v datacentre B (backup) a do tretice jeden /24 (celkovo /22 subnet) announcovat cez oboch providerov do oboch DC.

Ak to teda chapem spravne, vznikne mi problem anycastu. IP Packet pre adresu z multihomovaneho subnetu mi raz dojde do DC A a inokedy (hoc aj od toho isteho "klienta") do DC B. V zavislosti od routovacich metrik, providerov po ceste, etc.

Pre DNS OK, mam 2 rozne servre, jeden v DC A, druhy v DC B co maju tu istu public IP z multihomoveho subnetu... Raz odpovie jeden, raz druhy, no issue.

Lenze ostatne sluzby nie su taketo simple, mozu bezat len single. Sice mam tu istu VMku na zdielanom storage cez DRBD dostupnu v oboch DC, ale naraz moze bezat len v jednom DC. A tu zacina moj problem.

Ako zabezpecit, aby IP paket pre server aktivny prave v DC A, nasledne aj dorazil k tej spravnej VMke?

Moj prvotny napad je bridgovat (L2) internetovu VLANu na switchoch v oboch DC. Ak som nezabudol na nic zasadne, takto by ten problem za mna vyriesil ARP protokol, ci?

Pride nove spojenie na multihomovanu IPcku, IP packet dojde do jedneho z tych dvoch DC, router ho forwardne na interface v internetovej VLAN na switchi, pripadne pred tym este spravi ARP request ak nema zaznam v tabulke... Tento forwardnuty packet uz teda ma na urovni L2 nastavenu spravnu DST MAC a kedze switch v DC A a switch v DC B by mali zbridgeovanu Internet VLAN, samotny ethernetovy ramec by siel bud priamo k cielovej VM, alebo by putoval cez Port s L2 bridgeom do druheho switchu a odtial k cielovej VM.
Cielova VM by uz odpovedala priamo cez router v jej aktivnom data centre.

Predstavujem si to moc jednoducho? Je v tej uvahe nieco uplne vadne?

Velku vacsinu by som riesil normalnejsie, pomocou dvoch A zaznamov v DNS a nasledne load balancer/mail server/etc v kazdom DC... Avsak mame sluzby ktore toto neumoznuju, su IP based a velmi velmi velmi citlive na nedostupnost.

Dakujem za input.

4
O serveru Root.cz / Funkce edit na fóru
« kdy: 22. 06. 2015, 19:16:20 »
Mam rad root.cz a ked viem, snazim sa relevatne odpovedat na otazky na fore. Nie je vsak v mojich silach uplne sa vyhnut chybam a tie by som po sebe rad opravil. Root zije aj nami citatelmi [adblock pre root vypnuty] a mal by teda aj reflektovat nase nazory/poziadavky.

Ziadam o pridanie funkcie EDIT na prispevky vo fore.

Ci ste za, alebo proti, vyjadrite svoj nazor.

5
Server / CEPH na malém počtu nodů
« kdy: 01. 06. 2015, 12:59:51 »
Hello,

Mame aktualne 8 dost odlisnych serverov hypervisorov na ktorych bezia desiatky VM, z toho tak polovica je produkcna a okrem redundatnych RAIDov je este nad DRBD. System je povacsinou Debian 8 (niektore este 7) s KVM, cely setup je enormne stabilny, ale dost neefektivny.

Snazim sa teda prejst na CEPH s nastavenym poctom replik na 3, to by malo efektivitu vyuzitia dikov nechat sice na povodnej urovni (3 kopie vsade vs. 2 az 4 kopie pri RAID a RAID + DRBD), ale umozni mi to (aspon) dufam migrovat VM celkom pohodne a zjednodusit/zprehladnit clustermanagement, ked uz nebudem musiet vzdy riesit len 2 nodove rozdelenie.

O Ceph je toho pisaneho vela, az to celu situaciu zneprehladnuje. Chcel by som pocut nejake vase skusenosti. Planujem vyuzit len block storage a teda potrebujem (ak chapem spravne) aspon 3 MON instancie a vsade OSD instancie. Ma niekto nasadeny CEPH na tak malinkom pocte nod?
Kazdy server u nas ma ine rozlozenie diskov, od 2x 1T az po 6x 2T. CEPH doku odporuca pre kazdy disk samostatny OSD a idealne este journal zase nasamostatny disk... Lenze journal berie malo miesta a teda mu nevyhradim ani cely jeden disk... Ma zmysel davat 6x OSD na jeden server? Nebolo by lepsie napriklad aspon 2x mdraid 0 cez 3 disky a nad tym nechat 2x OSD? Kombinujte MON s OSD? Koli rychlosti pristupu preferujem aby na kazdej node bezal OSD a na nodach s vacsim poctom diskov (vacsim iops) nechat bezat aj MONy (tak 4ks nech ma vzdy aspon 3 k dispozicii)

Vacsina how tos a manualov riesi bud velke setupy s desiatkami nod alebo neriesia detaily vobec... Zatial som vo faze manual deploymentu na 3 test servre a citania ceph dokumentacie, akurat sa uz citim overwhelmed. Za kazdu radu budem vdacny.

6
Sítě / Zapojení Top of Rack switche na uplink data centra
« kdy: 23. 10. 2014, 15:19:18 »
Hello,

Doteraz som sa nezaoberal sietarinou natolko aby som musel riesit uplink v data centre, cize moje otazky mozu zniet blbo. Potesili by ma rady, ako to mate vyriesene vy, ake su vyhody ci nevyhody toho ci ineho riesenia.

Mame cerstvo prenajaty 1/2 rack, v nom iba zatial iba 5 serverov a par dalsich zariadeni... Avsak:
a) Sme optimisti, ratame s rastom
b) Setup velmi intenzivne pouziva VLANy
c) Vsetky servre pouzivaju bonding typu active/backup
d) Chceme dosiahnut plnu redundanciu siete
e) Teraz mame 2 CU ethernet kable v racku, kazdy ide u providera do ineho Cisco Nexus

Moznost 1: Nechat si napatchovat 2 kable pre kazdy server

Nechceme. Do buducnosti nevyhodne riesenie, navyse by sme casto museli konzultovat zmeny na VLANoch.


Moznost 2: Spravit LACP LAG medzi tymi dvoma uplinkami (navrhnute Data Centrom).

Tato moznost sa mi zatial pozdava najviac. Do racku dame stackovatelne switche, ci uz Avaya 5650, alebo Cisco 3750G, alebo 2960S. Nie nebudu nove a viem ze miesam L2 (2960) a L3... Nie som si isty aku vyhodu by pre nas predstavovali L3 switche. Cize ak sa nemylim, toto prepojenie na L2 urovni mozem spravit tak ze do jedneho naseho switchu pojde 1 CU uplink, druhy do druheho a tym ze to bude Stack, mozem spravit LAG aj cez tieto 2 switche. Aspon takto to chapem ja.

Ake ma nevyhody toto riesenie?


Moznost 3: Pouzit L3 switche a routovat (preferovane Data Centrom)

Toto je preferovana metoda Data Centrom, ale pre mna je zatial najzlozitejsia na pochopenie. Predpokladam ze default gateway by pre nas bol nas switch stack a tomu by bola announcovana routa do internetu. Zatial som nedosiel na to v com je toto riesenie jednoduchsie..?


Dalsie info:

Data Centrum nema zapnute STP na uplinkoch, cize pouzitie individualnych switchov (nie stack) by mohlo byt problematicke... Museli by byt prepojene, nakolko kazdy server moze mat prave na iny switch aktivny interface. Lenze ak to spravne chapem, mohlo by tu dojst k switch loopu ak by sa omylom prepojila Internetova VLANa medzi switchmi.


Ak si niekde v texte odporujem, alebo pisem blbost, kritika ma potesi. Dakujem.

7
Sítě / Ako ziskat Nortel/Avaya firmware?
« kdy: 15. 10. 2014, 19:51:16 »
Hello,

Vie mi niekto pomoct ziskat aktualny Nortel/Avaya firmware pre Ethernet Routing Switch rady 5000?

Konkretne by som chcel ERS 5000 Series Secure Runtime Image Software v6.6.1
https://support.avaya.com/downloads/download-details.action?contentId=C20147171451271470_7&productId=P0611&releaseId=6.6.x

Dakujem.



Cez eBay som na exeperimenty so stackovatelnymi switchmi kupil 4 Nortel BayStack 5510-48t switche aj so stack kablami s cielom ziskat skusenosti SMLT a vseobecne redundacie cez nielko switchov.
Doteraz som vzdy riesil len access switche, vzdy to boli Cisco a nikdy som nesiel dalej ako tagged VLANy... Nebol dovod. Pre vsetky Cisca v mojom LABe ktore este nemaju SW EOL nebol nikdy problem zohnat najnovsi IOS, teraz ma sokovalo ake zlozite je to pre tieto switche.

Kontaktoval som Avaya, ze mi ide o nekomercne pouzitie, chcem sa naucit robit s ich switchmi (vyhoda pre nich) a ze by ma potesilo ziskat v6.6.1 pre tieto vyse 10 rokov stare switche, lenze tam ma odkazali len na plateny SW maintenance...
Vazne cakaju ze dam tieto switche niekam do produkcie? Alebo ze zaplatim za ten firmware 10 nasobok toho co ma stali tie 3 switche?

8
Server / Doporučte monitoring pro SNMP
« kdy: 15. 09. 2014, 20:53:59 »
Hello,

O monitoringu je toho pisaneho velmi vela, TL; Did Read, napriek tomu som nedosiel k ziadnemu zasadnemu zaveru. Od bashingu nagiosu a jeho klonov pre zastaralost, az po rozne moderne systemy pouzivajuce akysi ESB na prenos sparv a midlleware si clovek musi zriesit sam... Je toho vela.

Moja situacia je do urcitej miery specificka: Potrebujem "monitoring" skoro vyhradne na boxy [specificke appliance, mimo scope-u prispevku] ktore dokazu vsetky co chcem vediet odpovedat cez SNMP protokol... Cize ziaden agent beziaci priamo na akejsi ditribucii, ale viac menej centralny cluster ktory bude konstatne zistovat stav cez SNMP a v pripade akejsi "nespravnej" hodnoty to vykona akusi akciu (mail/sms/script).

Doteraz som monitoring nikdy priamo riesit nemusel, starali sa o to iny [nagios, neskor opsview]. Treaz to vsak bude na mne. Mate nejaky tip ktory system pouzit? Nagios? Opsview? Iny fork Nagiosu? Zabbix? Nieco uplne ine?

Dakujem za kazdy input.

9
Software / V čem píšete dokumentaci k produktu?
« kdy: 24. 01. 2014, 13:15:41 »
Hello,

Dopracovali sme sa do stavu ze mame funkcny novy produkt (HW Appliance) a potrebujeme k nemu vytvorit dokumentaciu. Nase terajsie fungovanie s wiki ale nie je uspokojive.
Moze to byt aj komercny sw.

Nas najvacsi problem s wiki je, ze po case vznikne roztriesteny system kde sa na niekolko pageoch opisuje to iste s roznou detainostou a aktualnostou.
Na interne pouzitie je to dostacujuce, pre klientov ale neakceptovatelne.

Ide o verejnu dokumentaciu funkci, navody na pouzitie, funkcia hladania je velmi vitana.
Dakujem.

10
O serveru Root.cz / Blokace fóra z VPN Anonine
« kdy: 20. 08. 2013, 23:58:23 »
Hello,

Rad citam a obcas aj prispievam na toto forum a teda ma velmi hneva ze musim pre dany web nastavit vynimku v pravidlach. Uz aj len z principu poslednych udalosti pouzivam na mobilnych zariadeniach VPN s IPckami hlavne zo svedska a uz sa sem neviem cez danu VPNku dostat:

Nastala chyba!
Kvůli porušení pravidel diskusního fóra byl Váš uživatelský účet zablokován.
Zablokování Vašeho účtu je trvalé.

Ma to zmysel? Blokovanim tychto IP sa vyblokuje aj regulerny traffic. Co tak radsej spravit silnejsie "antibot" ochrany? Ak ide o blokovanie cloveka, blokovat IP aj tak nema zmysel.

11
Server / PHP Response headers + body logger
« kdy: 14. 05. 2013, 16:58:26 »
Hello,

Aktualne sa neviem pohnut dalej ohladne jedneho problemu s NGiNX a PHP (CGI). Potrebujem (legalne dovody) komplet logovat vstupujuci request - body aj headre a toto nie je problem dosiahnut.
Mozem priamo v NGiNX cez custom log logovat cele request body, ale podstatne jednoduchsie je priamo na zaciatku skriptu dumpnut cely request priamo cez funckie v PHP.

Mam vsak problem s logovanim responsu. PHP skript pouziva 3rd party modul ktory sa len instacuje a na zaklade vstupu posle nejaky output. Ten output je bud nejaky response 200 OK a nejaky text alebo response 500 a nejaky error. Ja potrebujem KOMPLET cely response vratane headrov a body dumpnut na filesystem ako log.

NGiNX + Lua modul mi celkom jednoducho umoznuje dumpnut response body do NGiNX logu, ale nie headre.

Dany 3rd party modul predpokladam ze pouziva die(), nakolko aj ked pred nim zapnem ob_start a pod tym ob_flush do premennej, tam sa ani nedostane. Dalo by sa nieco take dosiahnut cez CGI wrapper? Alebo ma niekto nejaky napad ako to spravit?
Dakujem.

12
Bazar / Prodám 1U Intel server SR1680MV
« kdy: 08. 06. 2011, 20:11:16 »
Servus,

Predavam 2 nodovy server Intel SR1680MV. Je to 1 unitovy server ala blade server nakolko jeho telo obsahuje 2 samostatne nody.

Kazda noda je osadena dvoma Intel Xeon 5570 [4x 2.93 GHz - Turbo 3.33 Ghz], 72 GB RAM DDR3, 2x 320 GB Segate diskom, 2x Gigabit ethernet

Cize dokopy 16 Jadier s Turbo taktom 3.33 GHz (32 Jadier so zapnutym HT), 144 GB RAM a 1,28 TB storage. Pamate bezia v Performance mode.

Toto riesenie je idealne pre HB cluster. Zaruku uz nema! Realne ho vyradujeme z prevadzky asi 26. tyzden, cize 1. Jula moze byt volny.
Cenu navrhnite.

Pre konkretne specifikacie pozrite intel stranky: http://download.intel.com/support/motherboards/server/sr1680mv/sb/sr1680mv_user_service_guide.pdf

http://www.intel.com/Products/Server/Systems/SR1680MV/SR1680MV-specifications.htm

http://www.intel.com/Assets/Image/prodlarge/SR1680MV_lg.jpg
http://www.nor-tech.com/intel/images/SR1680MV_Ch_45_O_3256.jpg
http://www.broadberry.co.uk/system_files/images/system_images/sr1680mv-large.jpg
http://www.jcsn.co.jp/products/spec2/img/rack/sr1680mv.jpg
http://www.systemworks.co.jp/images/sr1680mv/dt5.jpg
http://ru.intel.com/business/community/index.php?act=attach&type=blogentry&id=3340

13
Odkladiště / Deepsec 2010 [Vienna]
« kdy: 26. 11. 2010, 15:16:20 »
Hi,

Tak mimochodom... Nie je tu tiez niekto? Nejaky CZ security experti? :) Sice ma to mozno napadlo trochu neskoro, ale za pokus to stoji.

BR

14
Server / Mount/fsck/cokolvek na particiu v image file
« kdy: 18. 03. 2010, 17:21:19 »
Hello,

Urcite to nie je tazke ale google mi vynimocne nevie pomoct. Mam vykonny [2x] server kam ideme docasne v povodnom stave umiestnit X starych masin bez akej kolvek zmeny.

Su to 2 stroje pricom jeden hra rolu slave pokial by sa nieco malo udiat s master masinou.

Moj postup je taky ze vytvorim drbd device napriklad s nazvom "test-old-backup" ako /dev/drbd0

Potom pekne po sieti cez ssh z ro modu vacsinou dam copyrovat cele disky [starych serverov... max 80gb] pomocou dd.

Cize napriklad taky 20 GB disk ktory obsahuje 4 particie [hda1, hda2, hda3 a hda4] dam cez dd if=/dev/hda of=/dev/drbd0 na novu masinu...

cez fdisk, cfdisk krasne vidiet tie particie vnutri, ale system to stale chape ako /dev/drbd0.

Moja finalna otazka znie... Ako mountnem /dev/drbd0:1 alebo /dev/drbd0:2... Podobnu otazku som nasiel uz na inom fore kde sa clovek snazil v podstate o to iste s vynimkou ze slo o image file na disku a nie priamo o block device. Odpoved vsak nikto nedal.

Ak by ste niekto vedeli, usetrite mi cas. Diky!

Stran: [1]

reklama