正文共:1234 字 16 图,预估阅读时间:1 分钟
在之前的使用阵列卡做RAID(Redundant Array of Independent Disks,独立磁盘冗余阵列)的实验中(硬件RAID横评(上)、硬件RAID横评(下)),我们发现:硬件RAID包含RAID卡和主板上集成的RAID芯片,服务器平台多采用RAID卡。RAID卡由RAID核心处理芯片(RAID卡上的CPU)、端口、缓存和电池4部分组成。比如我上一台服务器DL360 Gen9上的P440ar阵列卡和8块SAS盘,又比如我现在这台DL580 Gen9上的P830i阵列卡和5块SAS盘。
得益于阵列卡缓存,相比于软RAID和软硬混合RAID,硬件RAID对CPU的占用率和整体性能是最优的,同时成本也最高的。硬件RAID通常都支持热交换技术,支持在系统运行下更换故障磁盘。
配置RAID阵列主要是通过系统自带的工具,当然,也可以使用单独的工具storcli(使用storcli工具配置RAID,收藏这一篇就够了)。
决定RAID 等级选择因素主要有三,即数据可用性、 I/O性能和成本。现在我使用的两块阵列卡支持的RAID 等级是:RAID 0、RAID 10、RAID 5、RAID 6、RAID 50和RAID 60,之前已经完成对所有等级的容量、性能和安全性测试。
主流 RAID 等级技术对比。
基于P440ar阵列卡和8块SAS盘,对RAID 0、RAID 1和RAID 5进行测试,并模拟硬盘故障,测得磁盘空间、读写速度等数据如下:
基于P440ar阵列卡和8块SAS盘,对RAID 6、RAID 50和RAID 60进行测试,并模拟硬盘故障,测得磁盘空间、读写速度等数据如下:
对测试可用的RAID等级进行横向比较,使用绿底标识优选项。
综合看来,RAID 6、RAID 50和RAID 60优势较小。剩余选项中,如果不要求可用性,可以选择配置RAID 0以获得最大空间和最高性能;如果可用性和性能是重要的,而成本不是一个主要因素,则可以根据磁盘数量配置RAID 1。如果可用性,成本和性能都同样重要,则可以选择配置RAID 5,这也是我两台服务器都使用RAID 5的主要原因。
与此同时,针对使用阵列卡配置的硬件RAID,今天补充测试一下配置好阵列卡之后调换顺序是否影响RAID功能。
首先,我们将服务器开机,检查一下RAID状态。
可以看到,DL580 Gen9服务器使用P830i阵列卡,阵列卡缓存为2 GiB,配置了RAID 5,磁盘总容量为3725 GiB(1000 GB磁盘的实际空间为931 GiB,使用的进制不一样)。进入系统之后,实际总容量为3.63 TB,约合3717 GB,实际上还是少了一部分的。
但是从字节的数量来看,相比于4000 GB的空间,差的就不多了。
我们先使用ATTO进行顺序读写I/O性能测试。
相比于DL360 Gen9,长字节的读取速度要有明显优势,但是写入速度差了一大截,毕竟DL360 Gen9配置的是8块10000转的SAS盘,DL580 Gen9从数量和转速上都不占优势。
再使用AS SSD进行I/O性能测试。
得分比之前测试的DL360 Gen9稍稍低一点,问题不大。
现在,拔掉服务器第三块硬盘。
从iLO查看,显示RAID性能下降,再使用ATTO测试一下顺序读写I/O性能。
读写性能几乎没有差距。再使用AS SSD测试一下I/O性能。
顺序读写的得分甚至还高了一点点。
为了模拟真实应用,我们现在复制5 GB的文件,在缓存用尽之后,平均写入速度大概在100 MB/S左右。
然后,我们将第三块硬盘再插回去。
此时,RAID状态变成了“正在重建”。此时使用AS SSD测试一下I/O性能。
性能小有下降,问题不大。
重建过程非常长,我测试了一下,中途关机重启不会影响RAID重建。按照标准计算方式,重建RAID大概需要对整个RAID的数据进行校验,并将数据写入新磁盘进行修复。对于1000GB的硬盘,单写入数据就需要953674 MB,按照写入速度100 MB/S计算,还需要2小时40分钟。
实际用时要比这个长一些,大约耗时4.5小时,因为还要考虑RAID执行数据校验计算以生成数据的时间,以及进行重建验证的时间。此外,硬件RAID重建是由阵列卡的处理器来完成的,性能比服务器的CPU要低得多,也会影响RAID的重建时间。
最后,我们将第2块硬盘和第4块硬盘对调一下,看看RAID能不能正常启动。
正常启动,没有任何异常报错。说明更换RAID阵列中磁盘的位置对阵列没有影响。
长按二维码
关注我们吧