1. 前言
OpenStack中共享存储和非共享存储的虚拟机迁移环境都已经搭建完成,接下来可以进行实验了。对于不同的宿主机、不同的实例、不同的负载,虚拟机迁移的性能也会有所不同。那么,虚拟机迁移的性能指标有哪些?又该怎样统计呢?本文就来研究一下。
2. 性能指标
参考论文《Virt-LM: a benchmark for live migration of virtual machine》,可以得知,虚拟机迁移过程中的主要性能指标有四个:
- 整体迁移时间:从迁移开始到迁移结束的时间。
- 虚拟机停机时间:迁移过程中虚拟机停机(停止服务)的时间。
- 迁移数据量:在虚拟机迁移期间传输的数据总量。
- 应用程序的性能:迁移过程中对虚拟机中应用程序产生的影响。
3. 测量方法
3.1. 监控
既然是实验,那么肯定要收集实验过程中的数据。郝同学给这个四个节点的OpenStack集群安装了ganglia,用来监控各种指标。但是,ganglia更适合监控实时数据和观察变化,不适合进行统计。
3.2. 迁移时间
整体迁移时间怎么测出来?通过观察图表?不靠谱。叶可江老师提供了思路,整体迁移时间的话,可以通过日志来获取:tail -n 40 /var/lib/docker/volumes/kolla_logs/_data/nova/nova-compute.log
通过查看迁出宿主机的日志,然后对比ganglia图表,可以找到两个关键节点:
1 | 2018-11-22 09:59:42.442 5 INFO nova.virt.libvirt.migration [req-d9849256-eaa8-4446-9cec-9545b74df126 202e7852a6074540a70638eed185538e eb83bf3b057f45e1b386cbc8c0702ae1 - default default] [instance: eebe068a-ba85-4905-a39b-f003a7480b14] Increasing downtime to 50 ms after 0 sec elapsed time |
但是,依然需要手动来计算迁移时间,很麻烦,那就写一个脚本来搞定吧!参考linux shell 时间运算以及时间差计算方法。
1 |
|
以上脚本,保存为time.sh,并添加执行权限。
另外,还可以通过nova migration-list > list.log
查看到迁移的开始时间和结束时间。然后通过脚本计算迁移时间:
1 |
|
不过,这种方法测出的迁移时间,比我们从nova-compute.log日志中测出的迁移时间,要多出7秒左右。这种方法应该更准确一些,毕竟是OpenStack自己记录的。
3.3. 停机时间
参考How to measure Migration time and Down time,使用ping命令来测量停机时间。
我们的虚拟机有两个IP,一个是内网IP,一个是浮动IP。外部机器可以直连的,一般是浮动IP,所以在迁移过程中,建议ping浮动IP,比如sudo ping 10.0.2.159 -i 0.01 >> ping.log
。ping.log中的信息为:
1 | PING 10.0.2.159 (10.0.2.159) 56(84) bytes of data. |
由统计信息可以求出停机时间:
1 | # 方法一:(缺失的icmp_seq总数)*(时间间隔) |
两种方法相差0.1s,方法一更精确一些。如果想要更加精确,还可以把ping命令的时间间隔调整为1ms。
方法一写成脚本为:
1 |
|
方法二写成脚本为:
1 |
|
以上方法求出的停机时间,是总的停机时间,无论迁移过程中有几次停机,该方法都是适用的。我们会好奇,实际迁移过程中,停机是否只有一次?我们写一个脚本来寻求答案:
1 |
|
脚本输出两个474,说明实例没有响应的序列号是连续的,证明了停机只有一次。比如result.log中为{3,4,5,6,7},那么7-3+1=5,集合中元素个数也为5,证明连续。比如result.log中为{3,4,5,10,11},那么11-3+1=9,集合中元素个数为5,证明不连续。
3.4. 带宽
测量出的downtime为4.74s,很不合理,因为虚拟机迁移理论上的停机时间是毫秒级的!是因为带宽太低导致停机时间过长吗?可以用如下方法进行测试:
1、compute1和compute2上都安装iperfsudo apt install iperf
2、compute1上启动iperf服务iperf -s
3、compute2上启动iperf客户端iperf -c 192.168.56.112 -i 1
3.5. 迁移数据量
对于迁移数据量,可以使用iptables对端口进行监控,参考Linux下对端口流量进行统计和Linux 使用iptables进行shadowsocks流量统计。但是,计算节点网络非常复杂,郝同学不想对其进行修改,所以采用另外一种方案,iptraf,参考使用iptraf查看TCP/UDP某个特定端口的带宽与流量。
1、两个计算节点安装iptrafsudo apt install iptraf
需要注意的是,iptraf只支持名为ethX的网卡。想要显示enoX、enp0sX网卡,要么网卡重命名,要么安装使用iptraf-ng。sudo apt install iptraf-ng
2、启动iptrafsudo iptraf
启动后,进入到一个字符界面。
3、设置
Configure… -> Additional ports…-> 22 -> Exit Configuration -> Statistical breakdowns… -> By TCP/UDP port -> eth0 -> statistic view
参考Configure live migrations,可以得知:
By default, libvirt uses the TCP port range from 49152 to 49261 for copying memory and disk contents. Compute hosts must accept connections in this range.
所以在实际使用的时候,端口设置为49152 to 49261。重新进入统计页面,之前的统计数据会清零。
3.6. 应用性能
Web应用的性能,主要包括执行时间、传输速度、吞吐量、资源占用率。
基准测试(benchmarking)是一种测量和评估软件性能指标的活动。你可以在某个时候通过基准测试建立一个已知的性能水平(称为基准线),当系统的软硬件环境发生变化之后再进行一次基准测试以确定那些变化对性能的影响。这是基准测试最常见的用途。其他用途包括测定某种负载水平下的性能极限、管理系统或环境的变化、发现可能导致性能问题的条件,等等。详情参考什么是基准测试?。
对于性能的监控,最简单的思路是Apache Benchmark。使用ab来监控Web服务的性能,检查迁移过程中会发生哪些变化。但是,ab什么时候运行?什么时候停止?请求多少次?怎么计算迁移过程中的平均性能?这些都不能确定。
如果使用cAdvisor+prometheus呢?参考linux工匠之docker和kubernetes的监控(cadvisor+prometheus)。不行,因为这种方法监控的是docker容器,收集的是CPU、内存等数据,而不是Web性能数据。
使用SPEC?也不好,收费,安装使用复杂。
很绝望,前辈们都是怎么进行测试的?不管了,先不考虑应用性能指标。