TCP problemy (out of order, previous segment not captured, retransmission, dup)

Potreboval bych pomoci s jednim sitovym problemem.

4xDSL bonding od ISP (zrejme round robin + tunel, na nasi strane jejich RB2011, /29 public subnet) za nim nas RB3011.
Do teto doby jel na jednom serveru (Debian) OwnCloud ve Virtual Boxu, jedna z verejnych IP pomoci dst-nas smerovana na nej.
Na jinem serveru (Debian) byl rozbehnut NextCloud v KVM. Po prehozeni dst-nat na nej je traffic jen v radech desitek kB/s a v dumpu hromada problemu, viz subject. Osobne bych tipoval na problem s MTU pri SSL spojeni, ale me znalosti v teto oblasti sitovani jsou znacne omezene. Problem se projevuje jen pri pristupu pres public IP, z LAN ci VPN problem neni. Pred delsi dobou byl problem s nedostupnosti nekterych serveru pres HTTPS a tehdy byl problem prave s MTU - onen bonding potrebuje v packetech misto pro sve informace.

Jsem predem vdecny za jakekoli konstruktivni tipy na analyzu problemu a nalezeni reseni. Jedine, k cemu nemam pristup, je ten providerem vlastneny RB2011.


jen pri pristupu pres public IP, z LAN ci VPN problem neni.
pres public IP - to jako z směrem z internetu k tobě?
"z lan" - tojako odtebe do internetu?

jen pri pristupu pres public IP, z LAN ci VPN problem neni.
pres public IP - to jako z směrem z internetu k tobě?
"z lan" - tojako odtebe do internetu?

Pres public IP - ano, z internetu, public IP je jedna z adres routeru, kde probehne DST-NAT na server pripojeny do LAN za routerem.
Z LAN - napr. ze stroje, ktery je pripojen ke stejnemu switchi jako ty servery.
Z VPN - z internetu VPN na router (ten RB3011) a pres VPN na server

Moje domenka je takova, ze nejakou informaci si potrebuje pridat tunel v ramci toho DSL bondingu providera, dalsi informaci DST-NAT a mozna dalsi bridge na KVM a velikosti MTU to neumoznuji. Ale samozrejme se mohu plest, potreboval bych navest na nejakou analyzu. Muzu napr. udelat TCP dumpy v libovolnem miste (mimo toho "bonding" routeru RB2011), ale sam nejsem schopen urcit pricinu problemu a reseni.

Vyreseno. Problem nebyl v MTU nebo nekde na ceste, ale primo na urovni KVM. Z nejakeho duvodu pouzity NIC model type rtl8139 zpusoboval tyhle problemy. Pri zmene na virtio je to v poradku.

RedHat k tomu uvadi:
Citace
By default, KVM virtual machines are assigned a virtual Realtek 8139 (rtl8139) NIC (network interface controller).
The rtl8139 virtualized NIC works fine in most environments. However, this device can suffer from performance degradation problems on some networks, for example, a 10 Gigabit Ethernet network.
A workaround is to switch to a different type of virtualized NIC. For example, Intel PRO/1000 (e1000) or virtio (the para-virtualized network driver).
[https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/5/html/virtualization/sect-virtualization-troubleshooting-kvm_networking_performance]