1
Sítě / Re:Zkušenost multicast (video) a levné switche
« kdy: 19. 12. 2021, 08:13:22 »
Za 15 let jsme vyzkoušeli cca 8-10 značek levných switchů. Některé vypadly v testovací fázi; cca 4 se dostaly až do produkce. Ve 3 případech jsme se napojili přímo na továrnu a radili jim, jak to mají implementovat. Nakonec jsme zakotvili u jedné značky, která jakžtakž funguje (člověk nesmí požadovat nějaké finesy). Provozujeme jich necelou tisícovku.
V našem případě u těch levných switchů nebyl problém s forwardováním multicastu, ale ve všech případech byl problém s implementací IGMP a vlastními registracemi. Často to bylo způsobeno omezením samotného čipsetu (podle vyjádření vedoucího vývoje). Ale já jsem ty čipsety nestudoval, takže to vyjádření beru s rezervou. Problém je, že když nám udělali bugfix, tak téměř vždy rozbili něco jiného. Což je ostatně dost častá vlastnost i u jiných technologií, které jsme potřebovali v Asii opravit.
Jeden typický problém za všechny: Query dotaz switch přeposlal všem uživatelům, jeden uživatel odpověděl reportem, switch tuto odpověď přeposlal opět do všech portů, ten report zdetekovali uživatelé a v souladu s RFC už neodpověděli. Následně tyto porty switch deregistroval na základě timeoutu pro odpověď a přestal jim posílat provoz. Řešením byla pouze izolace portů uživatelů.
Několikrát se objevil problém s omezením mcast adres (nešlo např. použít 239.0.0.1 nebo 239.0.0.10). A to buď od začátku, nebo daná adresa přestala fungovat po čase. Vše okolo fungovalo. Nebo se třeba narazilo na problém firmwaru, kdy se musel nastavit filtr (defaultní akce byla „deny“) pro daný rozsah mcast IP address. Jenže když jsme IGMP zakázali, tak ten filtr stejně fungoval, ale opačně. U většího provozu nám u některých switchů IGMP po čase komplet vytuhlo atd.
Prostě klasická ukázka výsledku softwarového vývoje Asie.
Rozsypaný obraz si pamatuju jen v případě, kdy se aplikoval mcast storm control (unregistered flood provoz, deaktivované IGMP) nebo u kapacitního limitu portů (např. nefunkční fast-leave, který může způsobit i přetížení koncového zařízení)
V našem případě u těch levných switchů nebyl problém s forwardováním multicastu, ale ve všech případech byl problém s implementací IGMP a vlastními registracemi. Často to bylo způsobeno omezením samotného čipsetu (podle vyjádření vedoucího vývoje). Ale já jsem ty čipsety nestudoval, takže to vyjádření beru s rezervou. Problém je, že když nám udělali bugfix, tak téměř vždy rozbili něco jiného. Což je ostatně dost častá vlastnost i u jiných technologií, které jsme potřebovali v Asii opravit.
Jeden typický problém za všechny: Query dotaz switch přeposlal všem uživatelům, jeden uživatel odpověděl reportem, switch tuto odpověď přeposlal opět do všech portů, ten report zdetekovali uživatelé a v souladu s RFC už neodpověděli. Následně tyto porty switch deregistroval na základě timeoutu pro odpověď a přestal jim posílat provoz. Řešením byla pouze izolace portů uživatelů.
Několikrát se objevil problém s omezením mcast adres (nešlo např. použít 239.0.0.1 nebo 239.0.0.10). A to buď od začátku, nebo daná adresa přestala fungovat po čase. Vše okolo fungovalo. Nebo se třeba narazilo na problém firmwaru, kdy se musel nastavit filtr (defaultní akce byla „deny“) pro daný rozsah mcast IP address. Jenže když jsme IGMP zakázali, tak ten filtr stejně fungoval, ale opačně. U většího provozu nám u některých switchů IGMP po čase komplet vytuhlo atd.
Prostě klasická ukázka výsledku softwarového vývoje Asie.
Rozsypaný obraz si pamatuju jen v případě, kdy se aplikoval mcast storm control (unregistered flood provoz, deaktivované IGMP) nebo u kapacitního limitu portů (např. nefunkční fast-leave, který může způsobit i přetížení koncového zařízení)