1
Sítě / Re:LG TV a obcházení NextDNS
« kdy: 29. 08. 2025, 15:39:39 »
Nastavit dns v tv. Pokud ten router umi nastavovat dns per network/ssid, tak to lze tam. Jinak by to vyzadovalo vlastni dhcp/slaac apod. konfigurace mimo router.
Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.
Je nějaký problém s ukládáním hesel přímo v prohlížeči?
# node_modules/.bin/elasticdump --debug --input=https://restore_user:SOMEPWD@SRC:9200/.security-7 --output=/tmp/.security.json
node_modules/.bin/elasticdump --debug --output=https://restore_user:SOMEPWD@DEST:9200/.security-7 --input=/tmp/.security.json
...
{
_index: '.security-7',
_id: 'user-SOMEUSER',
status: 403,
error: {
type: 'security_exception',
reason: 'action [indices:data/write/bulk[s]] is unauthorized for user [restore_user] with effective roles [restore_role] on restricted indices [.security-7], this action is granted by the index privileges [create_doc,create,delete,index,write,all]'
}
}
Fri, 11 Jul 2025 08:43:10 GMT | sent 63 objects, 0 offset, to destination elasticsearch, wrote 0
Fri, 11 Jul 2025 08:43:10 GMT | Total Writes: 0
Fri, 11 Jul 2025 08:43:10 GMT | dump complete
indices:data/write/bulk[s]
jsem nasel jako acl v Opensearch, ale v ES nic takoveho neni. Vi nekdo, jak na to? Zkousel jsem tomu dat veskere mozne role (samozrejme i all/superuser atd.), ktere nejsou aplikacne specificke (napr. kibana_* atd.)Idealni pripad by byl, kdyby klientska stanice neleakovala informace ani jednim smerem (tj. dotazy na nase jmena nesli ven, ale taky nechci videt, ci zpracovavat jine dotazy a narusovat soukromi klientu, ani co se dns tyce, ani co se dat tyce).
Nekdo se zkusenostmi se Starwinds VSAN? Maji relativne slusne reference a jde to pouzit s DIY HW.
pouze lokálně, nikdy jsem to neviděl nasazené na delší vzdálenost mezi 2 lokalitami. Pokud máš dva servery kousek od sebe a umíš je spojit přes L2 ne víc než přes jeden hop, je tohle naprosto skvělé a levné řešení, jak zajistit redundanci a live migraci virtuálů třeba s pomocí kvm.
Vůbec nikdy jsem to ale neviděl nasazené na větší vzdálenost. Není to bezstavové, na každém serveru potřebuješ mít jejich kontrolní službu, který to celé řídí a spojuje se s controllerem na druhé straně. Dobře tam je i řešení výpadků, kdy mají jednotlivé nody svoji prioritu a při pádu spojení, jen ten s nejvyšší prioritou může přijímat zápisy, tím se dá vyhnout split-brainu při zachování provozu z jednoho nodu. Mají tam heartbeat mezi nody a tady si myslím, že bude velká citlivost na latency, sice můžeš mít pomalé (asynchronní) replikace, ale node musí být pořád online.
Dobrý den,
máme dvě instance, jednu pro dožívající Vmware Essential plus jako SDS na 3 nodách Dell a druhý nový pro Hyper-v Cluster dvou nodový Think Server.
Nemáme s ním problém podpora funguje velmi dobře a nadstandardně dohlíží na to jak je řešení nainstalované a radí při návrhu řešení, v angličtině tedy.
Obě instance jsou full flash a duální 10GBE. Prostor je 30TB Datastore výsledný. V režimu 3 nody, převážná většina v režimu dva servery jde buď witness server nebo priorita, scénářů je hodně možných.
Storage máme připojen ke konzumentům přes iSCSI.
Umí i repliky do cold storage, mohou být synchronní nebo snapšoty dle planovače co se přenesou.
Hardware je dobré s nimi konzultovat předem než je posadit k hotovému.Nekdo se zkusenostmi se Starwinds VSAN? Maji relativne slusne reference a jde to pouzit s DIY HW.
... N-uzlový mesh je ještě další úroveň.To uz mas jedno. To co vyrabis je defakto zrcadlo, a nehraje zasadni roli (technologicky) jestli mas v tom zrcadle ty "disky" dva nebo jich mas deset. Jen ty naklady nerostou linearne, ale spis exponencelne. Potrebujes treba zajistit propoje vseho se vsim (pokud to teda opravdu ma zvladat vypadek cehokoli)
Jenze tady je podstatny to, ze tazatel zatim vubec nedokazal zduvodnit, nac neco takovyho chce. Ja osobne neznam firmu (a mam ve svy bubline tech konaktu docela dost) kde by treba vypadek storage i na par hodin byl nejakej kritickej problem. Jiste, muze to byt neprijemnost, muze to zpusobit nejake financni skody, ale firmu to nepolozi a jaderna elektrarna kvuli tomu nevybuchne.
Ja treba u nekterych zakazniku umim (a to u tech vetsich) v ramci rekneme 10ti minut nahodit provoz ze sekundarniho storage, a ani to neni nijak automaticke a je to zcela vyhovujici (za poslednich 20 let sem to delal 1x). Defakto nejhorsi scenar kterej muze nastat je nutnost obnovovat zalohy (tzn chciply by obe storage zaroven), coz narazi na limity HW a konektivity. Jenze v takovym pripade si nejak nedovedu predstavit, ze by toho nepochcipalo mnohem vic (treba pozar budovy) a tudiz by nejaka obnova zaloh bylo stejne az to posledni, co by bylo k reseni.
Ano, pro master-master to bude chtit nejen tlustsi linku, ale hlavne redundantni.
Na druhou stranu - podle toho popisu mi vychazi ze workload je spis RO, a pokud nekde dochazi k zapisum tak to budou spis logy/databaze a to lze agregovat/distribuovat jinak (u DB by se taky dala udelat segmentace, aby ten rw sdileny obsah byl co nejmensi a zbytek jen ro).
1TB je zde spise vyhoda (a to se pres 10G da pretahnout za 20 min cely).
Jeste jinak - jsi schopen na svych klientech striktne oddelit kam zapisama sahaji ?
(napada me pak reseni mit dve nezavisle NAS s NFS, a na obou NAS pobezi neco navazane na inotify a vsechno co se zmenilo, bude pushnuto pres 10G na druhy breh ... ale je zde velice silnej pozadavek, aby nedochazelo ke konfliktum)
Ke konfliktum treba nedojde, kdyz kazda aplikace (resp. bezici instance) bude bezet pouze na jedne strane, a na druhe se spusti az jedna lokace klekne. Pripadne ty appky musi mit vlastni individualni (lokalni, nesyncovanej) temp a pod.
Dotaz - Jak se na takové síti řeší pravidla firewallu pro jednotlivá zařízení, když se jim IP adresy náhodně "losují z klobouku" a ještě jich má každý interface několik? To musí být docela peklo...