<div dir="ltr">My host&#39;s network uses teaming, bridge, and vlan interfaces.<div><br></div><div>There are 4 physical interfaces: enp0s20f0-enp0s20f3</div><div>The 4 physical interfaces are grouped using lacp via teaming.</div><div><br></div><div><div><div>[root@cluster-02 ~]# teamdctl team0 config dump actual</div><div>{</div><div>    &quot;device&quot;: &quot;team0&quot;,</div><div>    &quot;link_watch&quot;: {</div><div>        &quot;name&quot;: &quot;ethtool&quot;</div><div>    },</div><div>    &quot;ports&quot;: {</div><div>        &quot;enp0s20f0&quot;: {},</div><div>        &quot;enp0s20f1&quot;: {},</div><div>        &quot;enp0s20f2&quot;: {},</div><div>        &quot;enp0s20f3&quot;: {}</div><div>    },</div><div>    &quot;runner&quot;: {</div><div>        &quot;active&quot;: true,</div><div>        &quot;fast_rate&quot;: true,</div><div>        &quot;name&quot;: &quot;lacp&quot;,</div><div>        &quot;tx_balancer&quot;: {</div><div>            &quot;name&quot;: &quot;basic&quot;</div><div>        },</div><div>        &quot;tx_hash&quot;: [</div><div>            &quot;eth&quot;,</div><div>            &quot;ipv4&quot;,</div><div>            &quot;ipv6&quot;</div><div>        ]</div><div>    }</div><div>}</div></div></div><div><br></div><div>The switch is configured to send 802.1q (vlan) encapsulated packets for a series of vlans.  For each vlan, a vlan interface is configured on the linux host and a bridge is configured on top of the vlan iface.  Take vlan 80 as an example:</div><div><br></div><div><div>[root@cluster-02 ~]# cat /etc/sysconfig/network-scripts/ifcfg-team0.80</div><div>DEVICE=team0.80</div><div>VLAN=yes</div><div>BOOTPROTO=none</div><div>NM_CONTROLLED=no</div><div>BRIDGE=vmbr80</div><div>IPV6INIT=no</div><div>MTU=9000</div><div><br></div><div>[root@cluster-02 ~]# cat /etc/sysconfig/network-scripts/ifcfg-vmbr80</div><div>VLAN=yes</div><div>TYPE=Bridge</div><div>DEVICE=vmbr80</div><div>PHYSDEV=team0</div><div>VLAN_ID=80</div><div>REORDER_HDR=0</div><div>IPV4_FAILURE_FATAL=no</div><div>IPV6INIT=no</div><div>IPV6_AUTOCONF=no</div><div>IPV6_DEFROUTE=no</div><div>IPV6_FAILURE_FATAL=no</div><div>NAME=vlan-vlan80</div><div>ONBOOT=yes</div><div>MTU=9000</div><div>BOOTPROTO=none</div><div>STP=off</div><div>DELAY=0</div><div>IPV4_DEFROUTE=no</div></div><div><br></div><div><br></div><div>In a nutshell: physical ifaces (4) -&gt; team0 -&gt; team0.&lt;vlanid&gt; (10) -&gt; vmbr&lt;vlanid&gt; (bridge).  The bridges are all in place and everything works as expected with the interface/network configuration on the host:</div><div><div><br></div><div>[root@cluster-02 ~]# brctl show</div><div>bridge name     bridge id               STP enabled     interfaces</div><div>host-routed             8000.000000000000       no</div><div>virbr1          8000.525400885137       no              virbr1-nic</div><div>vmbr10          8000.0cc47a6b9554       no              team0.10</div><div>vmbr20          8000.0cc47a6b9554       no              team0.20</div><div>vmbr30          8000.0cc47a6b9554       no              team0.30</div><div>vmbr40          8000.0cc47a6b9554       no              team0.40</div><div>vmbr5           8000.0cc47a6b9554       no              team0.5</div><div>vmbr70          8000.0cc47a6b9554       no              team0.70</div><div>vmbr80          8000.0cc47a6b9554       no              team0.80</div><div>vmbr90          8000.0cc47a6b9554       no              team0.90</div><div>vmbr91          8000.0cc47a6b9554       no              team0.91</div><div>vmbr92          8000.0cc47a6b9554       no              team0.92</div></div><div><br></div><div>In openvz on RHEL 6, I added an interface to a container using vzctl like this:<br></div><div>vzctl set 30000 --netif_add eth4,,veth30000.40,,vmbr40 --save<br></div><div><br></div><div>I am trying to add a veth interface to a container and specify the bridge interface on Virtuozzo 7.</div><div>- vzctl behaves differently, it expects macs.</div><div>- prlctl does not have sufficient options; I can add an interface but not specify the bridge device<br></div><div>- prlsrvctl looks like it only supports physical interfaces (see following commands)</div><div><div>[root@cluster-02 ~]# ip link show vmbr80</div><div>21: vmbr80: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu 9000 qdisc noqueue state UP mode DEFAULT</div><div>    link/ether 0c:c4:7a:6b:95:54 brd ff:ff:ff:ff:ff:ff</div><div>[root@cluster-02 ~]# ip a show vmbr80</div><div>21: vmbr80: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu 9000 qdisc noqueue state UP</div><div>    link/ether 0c:c4:7a:6b:95:54 brd ff:ff:ff:ff:ff:ff</div><div>[root@cluster-02 ~]# prlsrvctl net add vlan80 -i vmbr90 -t bridged --ip <a href="http://10.1.0.0/22">10.1.0.0/22</a></div><div>Failed to find network adapter vmbr90 on the server.</div></div><div><br></div><div>- vznetcfg does not seem to exist in a state that matches the virtuozzo 7 documentation (only see /usr/libexec/libvzctl/scripts/vznetcfg on my machine)</div><div><br></div><div>I thought maybe I should add a virtual network and bridge it, but I can&#39;t seem to find a way to do this.</div><div>I thought maybe I would use vzctl like I did on rhel 6, but that requires me to provide mac addresses (rhel 6 would autogen macs)</div><div><br></div><div>At a bit of a loss.  Any help is appreciated.</div><div><br></div><div>Thanks,</div><div>Axton Grams</div><div><br></div><div><br></div></div>