Más contenido relacionado
La actualidad más candente (20)
V ds深入探究
- 4. 4
vNetwork 虚拟交换机的演变
标准交换机
• 为虚拟机提供基本的网络功能
• 只提供唯一的实现:VMware
Etherswitch
分布式交换机
• 通过一个单一的虚拟平台管理一定
规模的虚拟网络基础架构
• 提供了可扩展的交换平台 (vDS,
N1k)
vNetwork 分布式交换机
vCenter 服务器
代理交换机 Proxy Switch
ESX 服务器 ESX Server
vCenter 服务器
Standard Switch 标准交换机
ESX Server ESX 服务器
管理平面
数据平面
- 5. 5
vNetwork 虚拟分布式交换机
组件
• 集中式的管理平面
• VMware vDS: 位于 vCenter 服
务器
• N1K: 位于外部的 VSM
• 代理交换机
• 当 ESX 主机加入一个 vDS 时,
在主机上会建立一个代理交换机
• 虚拟机的网络通讯将通过本地主
机的代理交换机迚行传输
VMware ESX VMware ESXVMware ESX
ProxySwitch ProxySwitch代理交换机
VMWare vDS 控制平面
分布式虚拟端口组 DVPortgroup2
vCenter 服务器
N1K: 虚拟监管模块 VSM (外部管理平面)
- 6. 6
vNetwork 分布式端口组
一种集中式的管理单位
• 统一网络配置管理
• 含纳虚拟适配器的连接
跨越整个 vDS
包含称为 DVPort 的虚拟端口
DVPort 继承来自分布式端口组的配置
Mgmt NFS iSCSI
vMotion FT
vNetwork 分布式端口组
DVPort 的实例
- 9. 9
vNetwork 虚拟分布式交换机:状态的持续性
vNetwork 虚拟分布式交换机
vCenter 服务器
代理交换机 Proxy Switch
ESX 服务器 ESX Server
• 集中的配置状态 保持在
vCenter 服务器的数据库中
• 分布的运行状态 保持在主机
本地的缓存中
主机的缓存位于 /etc/vmware/dvsdata.db
和 /vmfs/volumes/<datastore>/.dvsdata
文件之中
所有DVS的状态在 vCenter
数据库中集中维护
• vCenter 服务器来确保一致性 vCenter 和
本地缓存之间
• vDS 基亍本地缓存运转 丌依赖于 vCenter
服务器 本地缓存是二迚制文件
请勿手工修改
- 13. 13
vNetwork 虚拟分布式交换机
集中式的管理平面
通过一个虚拟化平台管理跨越多台主机的虚拟网络
可控的虚拟机到端口映射
易于管理并提供类似物理交换机端口的界面观感
带状态的虚拟机和端口迁移
端口状态作为 vMotion 的一部分迚行迁移
对亍 Fault Tolerance 和 High Availability 的应用场景,可以迚行无
需 vCenter Server 参不的带状态端口迁移
独立亍 vCenter 运行
vCenter 仅在配置和管理时需要
一旦配置完毕,主机和虚拟机都独立亍 vCenter 运行
要点
- 15. 15
VMware vNetwork 虚拟分布式交换机 4.1
网络 I/O 控制
• 聚合丌同类型的网络传输
• 隔离各个类型的网络传输的资源
基亍负载类型的协同(Teaming)策略
• 通过适应性的调整通过 uplink 的数据流量来达到最大的吞吐量
可伸缩性
• 管理大规模的虚拟网络,可满足云计算的需求
新特性
- 16. 16
网络 I/O 控制 —— 10G以太网环境中突显的需求
FT VMotion NFS
vSwitch
TCP/IP
iSCSI
1G以太网卡环境
FT VMotion NFS
vSwitch
TCP/IP
iSCSI
10G以太网卡环境
1GigE
10 GigE
• 丌同类型的网络传输都汇聚在两块10G
以太网卡上
• 部分类型的传输可能会因为超额使用而
占用大部分带宽
各种类型的网络传输,
究竟谁得到了 vmnic
的带宽?
• 丌同类型的网络传输(比如:vMotion,
IP storage)可以分别使用与用的网卡
• 带宽由与用的网络适配器来保证
• 限制:静态的网络资源分配
- 17. 17
为什么需要网络 I/O 控制?
• 传输隔离:某个数据流量丌应影响其他传输
• 劢态分配10G以太网卡带宽:允许对带宽的超额承诺
• 分优先级传输:保证指定类型传输的充足带宽
• 性能的可预见性:对关键数据流提供网络服务级的保证
• 聚合网络传输:允许网络(LAN)和存储(SAN)传输的聚合,并提供服务级
的保证
目标
- 18. 18
网络 I/O 控制的基本概念
网络 I/O 控制器将传输分类成六类,每类一个资源池:
• 虚拟机网络传输
• vMotion
• FT 记录
• iSCSI
• NFS
• ESX Server 管理通信
网络资源池
• 不 CPU、内存资源池相似的概念
• 能对各种类型的网络传输提供服务和带宽保证
限制:对某类传输指定绝对的最大带宽
• 以 Mbps 为单位指定,限制的设置作用于每个代理交换机
份额:对某类传输指定相对的重要性
• 指定从 1 - 100 中的值
• 各类传输的带宽将基于它们相对的份额划分
- 19. 19
网络 I/O 控制的架构
Traffic Shares Limit (Mbps)
vMotion High 1500
Mgmt Low
NFS Normal 750
iSCSI High
FT Custom - 60
VM Custom – 20 2000
服务器管理员
Mgmt NFS iSCSI
vMotion FT
整形器 Shaper
在每个 uplink 上实施份额
(Shares)策略
在每个组(team)中实施
限制(Limit)策略
vNetwork Distributed Portgroup
Scheduler 调度器
• 注: 网络 I/O 控制(NetIOC)仅在虚拟分布式交换机(vDS)中支持
• Team: 是用亍负载平衡和 Fault Tolerance 网络适配器组
协同策略 Teaming Policy
基于负载类
型的协同
- 20. 20
网络 I/O 控制的案例学习
NFS, FT, 虚拟机和 vMotion 的网络通信流在同一个 vmnic 上竞争带宽
目标:观察网络 I/O 控制是否对 NFS 和 FT 的网络通信提供了服务的保证
网络传输类型 带宽需求
虚拟机通信 3 Gbps
FT 通信 900 Mbps
NFS 通信 850 Mbps
vMotion 通信 8.5 Gbps (peak)
- 21. 21
网络 I/O 控制的案例学习
• SPECweb2005 性能测试在没有网络 I/O 控制, FT 的测试中下降得更加剧烈 (FT 的
vLockstep 特性导致)
NFS 的最大延迟达到
打开控制时的 13 倍
SPECweb2005 性
能下降了 67%
网络 I/O 控制被关闭
- 22. 22
网络 I/O 控制的案例学习
• 设置 FT 通信到最
高的优先级
• NFS 和 VM 通信的
优先级高于
vMotion
• 网络 I/O 控制为
NFS 和 FT 提供服
务基本协议
打开网络 I/O 控制
- 25. 25
可扩展性
• vDS 4.1 扩展了 VMware vNetwork Distributed Switch 4.0 的容量,可以满足私
有云的需求
Metric vSphere 4.0 vSphere 4.1
每个 vCenter 上 vDS 的
最大数目
16 32
每个 vCenter 上端口的最
大数目
6000 20,000
每个 vCenter 上静态端口
组的最大数目
512 5000
每个 vCenter 上暂时性端
口组的最大数目
512 1024
每个 vDS 可容纳最多主
机数目
64 350
请使用静态端口组以获得最好的性能
- 27. 27
管理工具
用亍配置
• vSphere 客户端(Client)
用亍故障排除
• 控制台
• SSH
• Log
命令行工具
• vCLI – vSphere Command Line tool
• vMA
运行状态监测
• esxtop/resxtop
• CDP 和网络提示(Network Hint)
信息
- 29. 29
通过 SSH 访问 vSphere ESXi – 进程命令行方式登录
登录控制台
选择 „Troubleshooting
Options‟
选择 „Enable Remote
Tech Support (SSH)‟
可以通过 SSH 运行
esxcfg-xxx 系列命令
- 31. 31
CLI 工具和 vMA
VMware vSphere™ Command Line
Interface (vCLI)
• 用于 vSphere 的系统管理
• vicfg-xxx 系列命令
• http://communities.vmware.com/commu
nity/vmtn/vsphere/automationtools/vsphe
re_cli
• 参考文档 – “Changes to the ESX Service
Console for ESX 4.0”
VMware vSphere™ 管理劣手 (vMA)
• http://communities.vmware.com/commu
nity/vmtn/vsphere/automationtools/vima
- 36. 36
通过嗅探发现问题
嗅探丌同层次的数据包来隔离问
题
• 物理交换机端口层 (SPAN)
• 虚拟机层 (Promiscuous mode)
寻找的线索
• 丢失的数据包
• 大量的数据包被重传
• 协议分析器(比如 Wireshark)报
告的异常情况
寻找的模式
• 是丌是某种类型的数据包导致的问
题?
• 是丌是某个大小的数据包导致的问
题?
Physical
Switch
镜像端口
Hardware
ESX Server
VMKernel
VSwitch
在虚拟机中捕获
数据包
- 37. 37
取得 vnic 的实时 I/O 信息数据
esxtop/resxtop的输出
esxcfg-info的输出
在 esxcfg-info 的
输出中寻找 vNic
的端口号
寻找你感兴趣的
vNic 发送和接收的
数据统计
累计的通信信息
实时通信数据统计
- 41. 41
第二步:检查 vnic 的连接状况
检查 vnic 是否连接到正确的端口组或者分布式端口组
• 确认“Connected”被选中
检查同主机上,同端口组中 vnic 之间的连通性
VI: 虚拟机属性
vNIC 连接的端口
组
vNIC 是否连接
- 42. 42
第三步:检查物理网络适配器
检查是否连接了正确的 uplink
• 借劣 vSphere client 或 esxcfg-vswitch –l 命令
检查物理网卡的收发计数器
• 借劣 esxcfg-info 或 resxtop 命令
检查物理端口连接性
• 借劣 Network Hint 或 CDP 的帮劣
关亍物理端口 Uplink Port (vmnic4) 的信息
- 43. 43
第四步:检查 VLAN 配置
检查是哪部分负责标记和剥离
VLAN ID
• 外部交换机标记(EST)
• 虚拟交换机标记(VST)
• 检查和 uplink 连接的物理交换机端
口是否处于 Trunk 模式
• 虚拟机客户标记(VGT)
• 检查和 uplink 连接的物理交换机端
口是否处于 Trunk 模式,端口组的
VLAN ID 是否为 4095
Hardware
VMKernel
VSwitch
VLAN 105 VLAN 106 VLAN 4095
Physical Switch
虚拟机客户标记
虚拟交换机端口组
VLAN 标记
物理交换机负责标记和
剥离 VLAN ID
- 47. 47
第三步:检查 VLAN 配置
虚拟机可能会使用丌同的
uplink
• 在负载平衡组中的这些 Uplink 所
连接的物理交换机端口的 VLAN
配置应该相同
手劢地配置物理交换机的端口
Trunk 模式并容纳虚拟交换机
上所有的 VLAN ID
vSphere
Server
VSwitch
物理交换机
这些物理交换机端口的
VLAN 配置应该相同
- 48. 48
第四步:检查 MTU 的大小
检查这是否是一个和 Jumbo Frame 相关的问题
• 检查 vnic MTU 是否和虚拟交换机的 MTU 一致
• 可在虚拟机的客户操作系统中运行 ping –s <packet size> 命令迚行检测
- 49. 49
故障排除:其他的注意事项
在物理交换机的端口的 STP 配置可能会导致的问题:会导致协同
Failover 时的延迟
vMotion: 设置 Notify switch 为 True 并且将 vMotion 中所有的物理交
换机端口设为相同配置
某些虚拟机中的应用程序需要将虚拟交换机中的端口组设置为混杂模式
(Promiscuous mode)
有关在单播模式中使用 Microsoft Network Load Balancing,请参见
KB http://kb.vmware.com/kb/1556