超融合架構是通過(guò)軟件定義計算、存儲和網(wǎng)絡(luò )的方式,在一臺服務(wù)器設備中融合計算、存儲、網(wǎng)絡(luò )等資源,實(shí)現模塊化彈性資源擴展,形成統一資源池。相較于傳統IT基礎架構,超融合架構憑借其集成度高、部署快、運維便捷等優(yōu)勢,成為越來(lái)越多的企業(yè)用戶(hù)推動(dòng)數字化轉型的優(yōu)先選擇。
超融合架構下的存儲服務(wù)以典型的分布式存儲架構為主,相比傳統的分離架構獨占物理硬件資源,超融合通過(guò)Linux Cgroup等技術(shù),將存儲服務(wù)算力從系統中進(jìn)行隔離使用,存儲服務(wù)以更加輕量化方式運行,性能參數更加匹配硬件資源。
存儲服務(wù)通常包括塊存儲、文件存儲和對象存儲服務(wù),塊存儲和文件存儲服務(wù)對存儲性能、可靠性要求高,時(shí)延敏感,承載用戶(hù)部分關(guān)鍵業(yè)務(wù),通常采用全閃存配置;對象存儲服務(wù)常用于備份、歸檔等業(yè)務(wù),時(shí)延要求相對低,常采用SSD+HDD混合存儲方式部署。其中,塊存儲服務(wù)是超融合使用的主要場(chǎng)景。
為助力企業(yè)用戶(hù)構建超融合架構的現代化數據中心,滿(mǎn)足業(yè)務(wù)發(fā)展需求,憶聯(lián)聯(lián)合新華三在超融合架構下打造高性能存儲方案。
H3C UIS超融合管理平臺是新華三集團自主研發(fā)的面向下一代企業(yè)和行業(yè)數據中心的軟件定義基礎設施解決方案。在通用X86或ARM服務(wù)器上無(wú)縫集成計算虛擬化、存儲虛擬化、網(wǎng)絡(luò )虛擬化、安全虛擬化、數據庫服務(wù)、運維監控管理、容災備份、云業(yè)務(wù)流程交付等軟件技術(shù)??勺赃m應部署于私有云、混合云、邊緣云的全域云場(chǎng)景,為客戶(hù)提供極致融合、極優(yōu)交付、極簡(jiǎn)上云、極寬場(chǎng)景、極速性能的全無(wú)損云計算基礎架構,滿(mǎn)足數據中心未來(lái)十年信息化發(fā)展任意階段、任意規模、任意場(chǎng)景的技術(shù)架構變革需求。
圖1:H3C UIS超融合管理平臺架構圖
1 驗證環(huán)境
1.1 本次驗證硬件配置
類(lèi)型 |
型號 |
硬件配置 |
服務(wù)器 |
2U2路服務(wù)器 |
CPU:Intel(R) Xeon(R) Gold 5318Y CPU @ 2.10GHz |
內存:12*16GB |
||
存儲控制器:支持RAID 1(系統盤(pán)) |
||
硬盤(pán) |
系統盤(pán) |
2*480GB SATA |
數據盤(pán) |
4*3.84T NVMe SSD(憶聯(lián)UH711a) |
|
網(wǎng)卡 |
網(wǎng)卡 |
網(wǎng)卡:2*2端口10GE以太網(wǎng)卡 1*4端口千兆以太網(wǎng)卡 |
交換機 |
10GE交換機 |
48端口10GE交換機 |
注:實(shí)驗室使用3臺服務(wù)器,每臺分4塊數據盤(pán),用戶(hù)可根據實(shí)際盤(pán)的數量需求進(jìn)行配置(目前只支持512B扇區的NVMe盤(pán)) |
1.2 本次驗證軟件配置
類(lèi)型 |
型號 |
版本 |
存儲軟件 |
H3C UIS超融合管理平臺 |
V7.0 (E0750P10) |
FIO |
IO測試 |
3.18 |
SAR |
網(wǎng)絡(luò )監控 |
10.1.5 |
IOSTAT |
盤(pán)側IO統計 |
10.0.0 |
MPSTAT |
CPU利用 |
10.1.5 |
1.3 本次驗證測試環(huán)境規劃
圖2:測試環(huán)境規劃架構圖
2 驗證方法
步驟1:塊存儲測試的存儲配置為存儲池采用3副本,配置6個(gè)虛擬機客戶(hù)端。在默認數據池(default Data Pool)創(chuàng )建6個(gè)大小為100GB的塊設備,并添加到iSCSI網(wǎng)絡(luò )存儲池中,虛擬機添加iSCSI網(wǎng)絡(luò )存儲池中的塊設備后進(jìn)行IO測試。
步驟2:發(fā)IO測試前,需對服務(wù)端和客戶(hù)端的IO、CPU、網(wǎng)絡(luò )進(jìn)行監控,每2秒采集一次數據,各對應如下命令:
# iostat -xmt 2 >> iostat.log &
# mpstat -P ALL 2 >> mpstat.log &
# sar -n DEV 2 >>sar.log &
步驟3:在各測試客戶(hù)端上運行fio任務(wù)后臺監聽(tīng)服務(wù),然后同時(shí)對6個(gè)塊設備下發(fā)IO(選取其中一個(gè)客戶(hù)端執行下發(fā)IO操作)。正式測試前需要對各塊設備進(jìn)行預寫(xiě)。fio參考命令如下:
# fio --server & //各客戶(hù)端開(kāi)啟后臺監聽(tīng)服務(wù)
# fio --client=host.list fio.job //各客戶(hù)端下發(fā)IO
步驟4:步驟3完成后,匯總所有客戶(hù)端fio的BW、IOPS、平均時(shí)延。
3 驗證結果
本次在H3C UIS塊存儲場(chǎng)景下的驗證結果如下:
3.1憶聯(lián)UH711a在4KB隨機讀寫(xiě)下的表現
圖3:憶聯(lián)UH711a在4K隨機讀寫(xiě)下的表現
從圖3可以看出,在4KB隨機讀寫(xiě)場(chǎng)景下,當隊列深度在1-32QD時(shí),UH711a的IOPS呈增長(cháng)趨勢,平均時(shí)延增長(cháng)幅度較小,整體表現較好;當隊列深度大于32QD時(shí),IOPS增長(cháng)較少,平均時(shí)延增長(cháng)幅度較大。
由此可見(jiàn),在4KB隨機讀寫(xiě)場(chǎng)景下,UH711a可為32QD及以下場(chǎng)景提供高性能、低時(shí)延的存儲服務(wù)。
3.2憶聯(lián)UH711a在4 KB隨機7:3混合讀寫(xiě)下的表現
圖4:憶聯(lián)UH711a在4KB隨機7:3混合讀寫(xiě)下的表現
如圖4所示,UH711a在4KB隨機7:3混合讀寫(xiě)性能場(chǎng)景下,在32QD及以下展現優(yōu)勢,IOPS峰值在32QD,可達62.3K,對應平均時(shí)延為6535.83 us(6.5ms )。當隊列深度大于32QD時(shí),IOPS呈下降趨勢,平均時(shí)延顯著(zhù)增加。
在此場(chǎng)景下,UH711a為32QD及以下場(chǎng)景提供最佳存儲性能。
3.3憶聯(lián)UH711a在128 KB順序讀寫(xiě)下的表現
圖5:憶聯(lián) UH711a 在128 KB順序讀寫(xiě)下的表現
圖5展示了UH711a在128KB順序讀場(chǎng)景下,隊列深度在1到16QD時(shí),UH711a讀帶寬呈線(xiàn)性增長(cháng)趨勢,平均時(shí)延增長(cháng)幅度較??;當隊列深度大于32QD時(shí),讀帶寬下降,平均時(shí)延增長(cháng)幅度較大。在128KB順序寫(xiě)場(chǎng)景下,UH711a寫(xiě)帶寬隨著(zhù)隊列深度的增加而不斷提升,平均時(shí)延在1-32QD表現較好。
以上數據趨勢驗證了在128KB順序讀寫(xiě)中32QD及以下場(chǎng)景UH711a的整體性能表現更為突出。
本次通過(guò)對4KB隨機讀寫(xiě)、4 KB隨機7:3混合讀寫(xiě)和128 KB順序讀寫(xiě)等場(chǎng)景的實(shí)測,系統性地驗證了憶聯(lián)UH711a在H3C UIS場(chǎng)景下的極致性能和穩定發(fā)揮,尤其是在32QD及以下場(chǎng)景表現更優(yōu),能夠提供低時(shí)延、高性能的存儲服務(wù),有效支撐超融合架構塊存儲業(yè)務(wù)對高性能固態(tài)硬盤(pán)的需求。
未來(lái),憶聯(lián)將持續聯(lián)合H3C,基于 UIS超融合軟件平臺,為用戶(hù)提供成本更優(yōu)、性能更優(yōu)、運維更便捷的存儲解決方案。
地址:深圳市南山區記憶科技后海中心B座19樓
電話(huà):0755-2681 3300
郵箱:support@unionmem.com