星期六, 四月 28, 2007

SUN SE6920性能测试报告

SUN SE6920性能测试报告


为了更好的了解SE6920的性能,由SUN原厂提供VDBENCH存储专业测试软件,对SE6920存储的不同划分RAID5和RAID1及本地盘进行性能测试。
测试数值并不意味存储的绝对性能,存储的性能在不同的处理平台具有不同的效果及差异,在相对高性能的主机上如高配置的小型机上性能会更佳。根据目前用户实际情况和主机环境,连接存储的数据库主机都是HPDL580 PCServer平台,主机配置相同,因此选用其中一台主机作测试用机。
在测试主机上分5个测试实例,分别对存储的RAID5和RAID1的随机访问和连续访问以及本地盘的随机访问进行测试。测试数值又分别用2G、4G、8G的读写大小和8K、16K、32K、64K的数据块的组合测试,尽可能详细的体现存储的综合表现。在数据库的应用环境中数据实际都是随机访问的,对SE6920的随机/连续访问测试只是提供对比,以供参考。


测试信息
测试软件
Vdbench 存储测试软件
测试软件提供
SUN
测试环境
测试机: HP DL580 PCServer使用两块Qlogic 2340HBA卡; IP:10.98.25.7

第一台SUN SE6920 划分RAID5 x 4 可用空间:2.9 T 测试LUN Size:20G 分散读写,系统设备:/dev/sdd

第二台SUN SE6920 划分RAID1 x 4 可用空间:1.7 T 测试LUN Size:20G 分散读写,系统设备:/dev/sdc

DL 580测试机本地硬盘x4;RAID5; 系统设备:/dev/cciss/c0d0p5


以下是对存储及本地盘的测试实例记录信息,每项测试均取平均值,如要每项测试的详细结果和过程信息见每项测试的附件。

测试实例1 DL580使用单路径连接SE6920,使用/dev/sdd,RAID5 测试时间150秒,报告间隔5秒。随机访问。
序号
测试对象
大小
块大小
测试结果(主要参数平均 值)
备注




读写/秒
I/O rate
响应时间毫秒

1
设备
2048M
8K
47M/sec
5975
2.673

2
设备
2048M
16K
53M/sec
3340
4.729

3
设备
2048M
32K
68M/sec
2166
7.379

4
设备
2048M
64K
123M/sec
1975
8.093

5
设备
4096M
8K
36M/sec
4634
3.447

6
设备
4096M
16K
52M/sec
3350
4.770

7
设备
4096M
32K
50M/sec
1596
10.022

8
设备
4096M
64K
87M/sec
1389
11.514

9
设备
8192M
8K
31M/sec
4022
3.973

10
设备
8192M
16K
42M/sec
2725
5.867

11
设备
8192M
32K
54M/sec
1721
9.294

12
设备
8192M
64K
70M/sec
1124
14.227

测试实例2 DL580使用单路径连接SE6920,使用/dev/sdd,RAID5 测试时间150秒,报告间隔5秒。顺序访问。
序号
测试对象
大小
块大小
测试结果(主要参数值)
备注




读写/秒
I/O rate
响应时间毫秒

1
设备
2048M
8K
43M/sec
5467
2.921

2
设备
2048M
16K
54M/sec
3436
4.651

3
设备
2048M
32K
66M/sec
2118
7.547

4
设备
2048M
64K
79M/sec
1256
12.734

5
设备
4096M
8K
43M/sec
5562
2.870

6
设备
4096M
16K
47M/sec
2976
5.369

7
设备
4096M
32K
62M/sec
1991
8.031

8
设备
4096M
64K
78M/sec
1243
12.861

9
设备
8192M
8K
43M/sec
5535
2.885

10
设备
8192M
16K
51M/sec
3275
4.879

11
设备
8192M
32K
55M/sec
1746
9.156

12
设备
8192M
64K
73M/sec
1168
13.687

测试实例3 DL580使用单路径连接,使用/dev/sdc,RAID1 测试时间150秒,报告间隔5秒。随机访问。
序号
测试对象
大小
块大小
测试结果(主要参数值)
备注




读写/秒
I/O rate
响应时间毫秒

1
设备
2048M
8K
46M/sec
5875
2.718

2
设备
2048M
16K
63M/sec
4052
3.943

3
设备
2048M
32K
75M/sec
2404
6.647

4
设备
2048M
64K
81M/sec
1300
12.278

5
设备
4096M
8K
38M/sec
4924
3.244

6
设备
4096M
16K
47M/sec
3029
5.276

7
设备
4096M
32K
54M/sec
1730
9.244

8
设备
4096M
64K
61M/sec
986.
16.213

9
设备
8192M
8K
33M/sec
4276
3.736

10
设备
8192M
16K
41M/sec
2601
6.146

11
设备
8192M
32K
46M/sec
1484
10.774

12
设备
8192M
64K
52M/sec
840
19.080

测试实例4 DL580使用单路径连接,使用/dev/sdc,RAID1 测试时间150秒,报告间隔5秒。顺序访问。
序号
测试对象
大小
块大小
测试结果(主要参数值)
备注




读写/秒
I/O rate
响应时间毫秒

1
设备
2048M
8K
37M/sec
4815
3.317

2
设备
2048M
16K
47M/sec
2996
5.335

3
设备
2048M
32K
59M/sec
1893
8.443

4
设备
2048M
64K
61M/sec
971
16.471

5
设备
4096M
8K
36M/sec
4603
3.468

6
设备
4096M
16K
44M/sec
2818
5.672

7
设备
4096M
32K
50M/sec
1601
9.987

8
设备
4096M
64K
59M/sec
948
16.859

9
设备
8192M
8K
32M/sec
4103
3.893

10
设备
8192M
16K
43M/sec
2725
5.863

11
设备
8192M
32K
49M/sec
1565
10.214

12
设备
8192M
64K
55M/sec
886
18.048

测试实例5 DL580测试本地磁盘,使用/dev/cciss/c0d0p5,RAID5 测试时间150秒,报告间隔5秒。随机访问。
序号
测试对象
大小
块大小
测试结果(主要参数值)
备注




读写/秒
I/O rate
响应时间毫秒

1
设备
2048M
8K
12M/sec
1587
10.076

2
设备
2048M
16K
13M/sec
807
19.783

3
设备
2048M
32K
24M/sec
780
20.500

4
设备
2048M
64K
33M/sec
531
30.100

5
设备
4096M
8K
9M/sec
1092
14.639

6
设备
4096M
16K
9M/sec
590
27.103

7
设备
4096M
32K
14M/sec
449
35.627

8
设备
4096M
64K
23M/sec
367
43.641

9
设备
8192M
8K
7M/sec
958
16.684

10
设备
8192M
16K
7M/sec
450
35.495

11
设备
8192M
32K
11M/sec
351
45.585

12
设备
8192M
64K
19M/sec
296
54.001


附件:见“测试日志”目录;
其中:测试实例1 à a01-a12.html
测试实例2 à b01-b12.html
测试实例3 à c01-c12.html
测试实例4 à d01-d12.html
测试实例5 à e01-e12.html



测试结果表现值图表:

图表一 SE6920RAID5和RAID1随机访问/连续访问表现图 读写MB/秒(参考)
图表一
由图表一可以看出在较大的读写和数据块时,RAID5和RAID1的连续读写的性能会有小幅度的提升。注:数值越高性能越优。

图表二 SE6920RAID5和RAID1随机访问/连续访问表现图 响应时间/毫秒(参考)
图表二

由图表二可以看出RAID5和RAID1都在读写容量和数据块小时随机访问稍小,而增大时顺序访问比随机访问的响应时间要略小,特别在8G时。注:数值越低性能越优。
以上两表作为顺序访问和随机访问的对比参考,实际应用环境以随机访问为主。

SE6920RAID5、RAID1和本地盘(RAID5)随机访问表现图 读写MB/秒
图表三 柱形图:
图表三 注:数值越高性能越优

图表四 折线图:
图表四 注:数值越高性能越优

总结:
由图表三和四看出SE6920的RAID5和RAID1的读写性能都高于本地盘(RAID5)。SE6920的RAID5和RAID1比较接近,RAID5在8GB的时候和所有64K都比RAID1快,特别是在2G+64K读写时远远超出RAID1和本地盘。SE6920RAID5和RAID1在此测试平台主机上读写性能综合差异接近,但RAID1牺牲较多的阵列使用容量。
SE6920RAID5、RAID1和本地盘(RAID5)随机访问表现图 响应时间/毫秒
图表五 柱形图:
图表五 注:数值越低性能越优

图表六 折线图:
图表六 注:数值越低性能越优

总结:
存储性能并不意味着只是读写速度有多快,性能体现在一个综合体系中。存储性能一个很重要的指标是响应时间,这决定在多主机多用户并发访问存储时的反应速度,响应时间越短就能保持在一定的读写速度的同时允许更多用户的并发访问。在图表五和六可以看出SE6920无论是RAID5和RAID1的响应时间都远远低于本地盘。
第二项测试
在系统上用操作系统常规命令测试读写性能,用DD及CP命令分别对SE6920存储和本地盘作读写测试。
2.1基于文件系统的测试
测试信息
测试软件
系统的dd、cp命令
测试软件提供
SUN
测试环境
测试机: HP DL580 PCServer使用两块Qlogic 2340HBA卡; IP:10.98.26.56

第一台SUN SE6920 划分RAID5 x 4 可用空间:2.9 T 测试LUN Size:200G 分散读写,系统设备:/dev/sdd 测试文件大小:10G ;读写次数:3次

第二台SUN SE6920 划分RAID1 x 4 可用空间:1.7 T 测试LUN Size:200G 分散读写,系统设备:/dev/sdc 测试文件大小:10G ;读写次数:3次

DL 580测试机本地硬盘x4;RAID5; 系统设备:/dev/cciss/c0d0p5 测试文件大小:10G ;读写次数:3次

以下是对存储及本地盘的测试实例记录信息,每项测试均取平均值,如要每项测试的详细结果和过程信息见每项测试的附件。

测试实例6 DL580使用系统命令DD,对SE6920 RAID5 、RAID1和本地盘(RAID5) dd 块大小:102400k
序号
测试对象
大小
读/写
测试结果(主要参数值)




第一次
第二次
第三次
平均数
1
RAID5
10G

76M/s
85M/s
83M/s
81M/s


3G/5G/5G

26M/s
29M/s
31M/s
29M/s
2
RIAD1
10G

46M/s
39M/s
41M/s
42M/s


3G/5G/5G

25M/s
21M/s
25M/s
24M/s
3
本地盘(RAID5)
10G

43M/s
28M/s
42M/s
38M/s


3G/5G/5G

106M/s
75M/s
104M/s
95M/s

测试实例7 DL580使用系统命令CP,对SE6920 RAID5 、RAID1和本地盘(RAID5)
序号
测试对象
文件大小
测试结果(主要参数值)



第一次
第二次
平均数
1
RAID5
5G
16M/s
17M/s
16.5M/s
2
RIAD1
5G
13M/s
12M/s
12.5M/s
3
本地盘(RAID5)
5G
28M/s
28M/s
28M/s

测试结果表现值图表:

图表七 系统命令DD对SE6920 RAID5 、RAID1和本地盘(RAID5)读写M/s
图表七


图表八 系统命令CP对SE6920 RAID5 、RAID1和本地盘(RAID5)读写M/s
图表八




2.2 基于裸设备的测试
测试信息
测试软件
系统的dd命令
测试软件提供
/
测试环境
测试机: HP DL580 PCServer使用两块Qlogic 2340HBA卡; IP:10.98.26.56

一台SUN SE6920 划分RAID5 x 2 可用空间:2.9 T 系统设备:通过系统raw命令映射存储和本地设备为/dev/raw/raw1 测试大小:1G/2G/4G ;并发DD

DL 580测试机本地硬盘x4;RAID5; 系统设备:通过系统raw命令映射存储和本地设备为/dev/raw/raw2 测试大小:1G/2G/4G


以下是对存储及本地盘的测试实例记录信息,每项测试均取平均值。

测试实例8 DL580使用系统命令DD,对SE6920 RAID5 、RAID1和本地盘(RAID5) dd 块大小:102400k
序号
测试对象
大小
读/写
测试结果(主要参数值)




第一次
第二次
平均数
1
SE6920 RAID5
单个DD

64M/s
68M/s
66M/s


并发2个DD

54+54M/s
/
54M/s x2


单个DD

60M/s
60M/s
60M/s


并发2个DD

46+46M/s
/
46M/s x2


并发3个DD

35+35+35M/s
/
35M/s x3
2
本地盘(RAID5)
单个DD

71M/s
87M/s
79M/s


并发2个DD

46+44M/s
/
45M/s x2


单个DD

28M/s
25M/s
26.5M/s


并发2个DD

14+14M/s
/
14M/s x2


并发3个DD

12+12+10M/s
/
11M/s x3




测试结果表现值图表:

图表九 系统命令DD对SE6920 RAID5 和本地盘(RAID5)读写M/s


图表九

在对裸设备读写时单个DD进程读SE6920与本地盘比较接近,但在多个DD进程并发读时SE6920有所增长,且增长比例明显快于本地盘的并发读,本地盘并发与单线程增长不明显。用单个DD进程做写操作时,在SE6920阵列上DD写比本地盘要快出约三倍,而且多个DD进程并发写时,SE6920阵列远远高于本地盘的并发写速度。SE6920在越多并发写时性能会有所提升,但本地盘无论单个DD和多个DD并发性写能比较平均。
本地盘DD性能在单个和多并发读写时总体性能变化比较平均,而在SE6920阵列上多个DD进程并发时总体读写性能会比单个DD读写进程有成倍增长,且越多并发时对单个DD的读写性能影响较小,而本地盘越多并发时会造成单个DD进程的读写有较大的性能下降。
另外,在裸设备下使用DD进行读写操作的结果要优于文件系统下使用DD,由于Linux文件系统特性,块大小受限于文件系统的块大小最大为4K,SE6920存储segment size一般设为64K,在主机文件系统缓存对存储读写时会受其影响。而裸设备不受文件系统得限制,测试读写时可指定块大小,能较好的发挥存储的读写性能。
由于Linux文件系统必须为buffer文件系统,无法作为直接IO进行读写,因此通过文件系统进行测试并不能准确判断存储系统性能。而裸设备的读写是直接IO没有文件系统的buffer,能直接反映存储系统的性能。因此就存储本身而言,在足够压力下(多用户多线程)SE6920的写性能是本机阵列卡的3倍以上,读性能也优于本机阵列卡。

没有评论: