首页
登录 | 注册

使用open vswitch构建虚拟网络

一、open vswitch简介

Open vSwitch是一个高质量的、多层虚拟交换机,使用开源Apache2.0许可协议,由

Nicira Networks开发,主要实现代码为可移植的C代码。它的目的是让大规模网络自动化可以通过编程扩展,同时仍然支持标准的管理接口和协议(例如NetFlow, sFlow, SPAN, RSPAN, CLI, LACP, 802.1ag)。此外,它被设计位支持跨越多个物理服务器的分布式环境,类似于VMware的vNetwork分布式vswitch或Cisco Nexus 1000 V。Open vSwitch支持多种linux 虚拟化技术,包括Xen/XenServer, KVM和VirtualBox。当前最新代码包主要包括以下模块和特性:

ovs-vswitchd 主要模块,实现switch的daemon,包括一个支持流交换的Linux内核模块;

ovsdb-server 轻量级数据库服务器,提供ovs-vswitchd获取配置信息;

ovs-brcompatd 让ovs-vswitch替换Linuxbridge,包括获取bridge ioctls的Linux内核模块;

ovs-dpctl 用来配置switch内核模块;

一些Scripts and specs 辅助OVS安装在Citrix XenServer上,作为默认switch;

ovs-vsctl 查询和更新ovs-vswitchd的配置;

ovs-appctl 发送命令消息,运行相关daemon;

ovsdbmonitor GUI工具,可以远程获取OVS数据库和OpenFlow的流表。

此外,OVS也提供了支持OpenFlow的特性实现,包括

ovs-openflowd:一个简单的OpenFlow交换机;

ovs-controller:一个简单的OpenFlow控制器;

ovs-ofctl 查询和控制OpenFlow交换机和控制器;

ovs-pki :OpenFlow交换机创建和管理公钥框架;

ovs-tcpundump:tcpdump的补丁,解析OpenFlow的消息;

 

内核模块实现了多个“数据路径”(类似于网桥),每个都可以有多个“vports”(类似于桥内的端口)。每个数据路径也通过关联一下流表(flow table)来设置操作,而这些流表中的流都是用户空间在报文头和元数据的基础上映射的关键信息,一般的操作都是将数据包转发到另一个vport。当一个数据包到达一个vport,内核模块所做的处理是提取其流的关键信息并在流表中查找这些关键信息。当有一个匹配的流时它执行对应的操作。如果没有匹配,它会将数据包送到用户空间的处理队列中(作为处理的一部分,用户空间可能会设置一个流用于以后碰到相同类型的数据包可以在内核中执行操作)。

二、open vswitch常用操作

以下操作都需要root权限运行,在所有命令中br0表示网桥名称,eth0为网卡名称。

添加网桥:

1
#ovs-vsctl add-br br0

列出open vswitch中的所有网桥:

1
#ovs-vsctl list-br

判断网桥是否存在

1
#ovs-vsctl br-exists br0

将物理网卡挂接到网桥:

1
#ovs-vsctl add-port br0 eth0

列出网桥中的所有端口:

1
#ovs-vsctl list-ports br0

列出所有挂接到网卡的网桥:

1
#ovs-vsctl port-to-br eth0

查看open vswitch的网络状态:

1
#ovs-vsctl show

删除网桥上已经挂接的网口:

1
#vs-vsctl del-port br0 eth0

删除网桥:

1
#ovs-vsctl del-br br0

三、使用open vswitch构建虚拟网络

1、构建物理机和物理机相互连接的网络

在安装open vswitch的主机上有两块网卡,分别为eth0、eth1,把这两块网卡挂接到open vswitch的网桥上,然后有两台物理机host1、host2分别连接到eth0和eth1上,实现这两台物理机的通信。构建结果图如下:

执行以下命令:

1
2
3
4
5
#ovs-vsctl add-br br0 //建立一个名为br0的open vswitch网桥
               
#ovs-vsctl add-port br0 eth0 //把eth0挂接到br0中
               
#ovs-vsctl add-port br0 eth1 //把eth1挂接到br0中

 

2、构建虚拟机与虚拟机相连的网络

在安装open vswitch的主机上安装两个虚拟机,把两个虚拟机的网卡都挂接在open vswitch的网桥上,实现两台虚拟机的通信,构建结果图如下:

执行以下命令:

# ovs-vsctl add-br br0 //建立一个名为br0的open vswitch网桥

如果使用vbox或virt-manager把bridge设置为br0即可,如果使用cli kvm则先创建两个文件,用于虚拟网卡的添加于删除。假设这两个文件分别为/etc/ovs-ifup和/etc/ovs-ifdown,则向这两个文件中写入以下内容

/etc/ovs-ifup

--------------------------------------------------------------------

1
2
3
4
5
6
7
8
9
#!/bin/sh
          
          
          
switch='br0'
          
/sbin/ifconfig $1 0.0.0.0 up
          
ovs-vsctl add-port ${switch} $1

--------------------------------------------------------------------

 

/etc/ovs-ifdown

--------------------------------------------------------------------

1
2
3
4
5
6
7
8
9
#!/bin/sh
         
         
         
switch='br0'
         
/sbin/ifconfig $1 0.0.0.0 down
         
ovs-vsctl del-port ${switch} $1

--------------------------------------------------------------------

使用以下命令建立虚拟机

1
2
3
4
5
6
7
8
9
10
11
kvm -m 512 -net nic,macaddr=00:11:22:33:44:55-net \
        
tap,script=/etc/ovs-ifup,downscript=/etc/ovs-ifdown-drive \
        
file=/path/to/disk-image,boot=on
        
kvm -m 512 -net nic,macaddr=11:22:33:44:55:66-net \
        
tap,script=/etc/ovs-ifup,downscript=/etc/ovs-ifdown-drive \
        
file=/path/to/disk-image,boot=on

3、构建虚拟机与物理机相连的网络

在装有open vswitch的主机上有一个物理网卡eth0,一台主机通过网线和eth0相连,在open vswitch的主机上还装有一台虚拟机,把此虚拟机和连接到eth0的主机挂接到同一个网桥上,实现两者之间的通信,构建结果图如下:

执行命令:

1
2
3
4
5
6
7
8
9
# ovs-vsctl add-br br0 //建立一个名为br0的open vswitch网桥
        
# ovs-vsctl add-port br0 eth0 //把eth0挂接到br0中
        
# kvm -m 512 -net nic,macaddr=00:11:22:33:44:55-net \
        
tap,script=/etc/ovs-ifup,downscript=/etc/ovs-ifdown-drive \
        
file=/path/to/disk-image,boot=on    //ovs-ifup和ovs-ifdown和上一节中相同

 

4、构建网桥和网桥相连的网络

以上操作都是将多个主机(物理机或虚拟机)连接到同一个网桥上,实现它们之间的通信,但是要构建复杂的网络,就需要多个网桥,在装有open vswitch的主机上建立两个网桥,实现它们之间的连接,构建结果如下:

执行命令:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
ovs-vsctl add-br br0    //添加一个名为br0的网桥
       
ovs-vsctl add-br br1    //添加一个名为br1的网桥
       
       
       
ovs-vsctl add-port br0 patch-to-br1    //为br0添加一个虚拟端口
       
ovs-vsctl set interface patch-to-br1 type=patch      //把patch-to-br1的类型设置为patch
       
ovs-vsctl set interface patch-to-br1 options:peer=patch-to-br0     //把对端网桥和此网桥连接的端口名称设置为patch-to-br0
       
       
       
ovs-vsctl add-port br1 patch-to-br0    //为br1添加一个虚拟端口
       
ovs-vsctl set interface patch-to-br0 type=patch      //把patch-to-br0的类型设置为patch
       
ovs-vsctl set interface patch-to-br0 options:peer=patch-to-br1     //把对端网桥和此网桥连接的端口名称设置为patch-to-br1

 

ovs-vsctl set interface patch-to-br0type=patch 和ovs-vsctl set interface patch-to-br0 options:peer=patch-to-br1是对ovs-database的操作,有有兴趣的同学可以参考ovs-vswitchd.conf.db.5

5、在不同的主机之间构建网桥之间的连接

在两台机器上分别安装上open vswitch并创建网桥,分别为两个网桥添加物理网卡,然后通过网线连接两个网桥,实现两个网桥之间的互通。构建结果图如下:

执行命令:

 

host1

----------------------------------------------------------

1
2
3
#ovs-vsctl add-br br0             //添加名为br0的网桥
      
#ovs-vsctl add-port br0 eth0       //把eth0挂接到br0上

 

host2

----------------------------------------------------------

1
2
3
#ovs-vsctl add-br br0             //添加名为br0的网桥
      
#ovs-vsctl add-port br0 eth0       //把eth0挂接到br0上

 

然后使用网线把host1的eth0和host2的eth0相连即可。

 

使用上边五种方法的组合就可以构建出各种复杂的网络,为各种实验提供网络的支持。


相关文章

  •     docker centos7容器使用bridge网络,可以ping通宿主机,但是不能访问外网,创建容器时使用host网络模式是可以访问外网的. 经过多次尝试,发现跟virbr0网络有关,virbr0网络是虚拟网络,由virt-ins ...
  • 对比剖析Swarm Kubernetes Marathon编排引擎
    Docker Native Orchestration 基本结构 可用性 你只需要在其中的一个docker节点运行使用 docker swarm init命令创建一个集群,在您要添加任何其他节点,通过docker swarm join命令加 ...
  • 基于vmware workstation的 pxe + kickstart批量安装linux
    [一]环境配置 vmware workstation 14.1.2 用于创建虚拟机 linux镜像 CentOS-7-x86_64-DVD-1804(7.5版) 虚拟机使用的操作系统 FTP服务   用来存放系统安装文件 TFTP服务   ...
  • Azure 内部负载平衡 (ILB)
    Azure 内部负载平衡 (ILB) 在驻留在云服务或具有区域范围的虚拟网络中的虚拟机之间提供负载平衡.有关使用和配置具有区域范围的虚拟网络的信息,请参阅 Azure 博客中的 Regional Virtual Networks(区域虚拟网 ...
  • 北京首都国际机场自1958年第一个航站楼正式投入使用,至今已走过50年历程.作为年旅客吞吐量超过5000万人次的全球十大机场之一,2008年2月29日,国家重点工程项目――北京首都国际机场T3航站楼正式启用,全面提升机场年旅客吞吐能力,为打 ...

2020 unjeep.com webmaster#unjeep.com
12 q. 0.014 s.
京ICP备10005923号