近年來(lái),隨著(zhù)云計算、5G、人工智能、物聯(lián)網(wǎng)、AI等新技術(shù)的快速發(fā)展和應用,數據量規模成指數級增長(cháng),傳統集中式存儲方案因可靠性、安全性無(wú)法保障,數據利用率低等弊端,無(wú)法滿(mǎn)足大規模的存儲應用需求,在此背景下分布式存儲應運而生。分布式存儲憑借其易擴展、高性能、成本優(yōu)勢明顯、支持分級存儲、多副本一致性及存儲系統標準化等優(yōu)勢成為云環(huán)境下存儲底座構建的重要選擇。
分布式存儲分為塊存儲、文件存儲和對象存儲,其中塊存儲主要是對計算集群虛擬機、容器提供彈性卷服務(wù),而彈性卷EVS作為當前云業(yè)務(wù)平臺最核心的存儲服務(wù),對存儲性能要求極高,在此基礎上各大云廠(chǎng)商基本采用全閃化形態(tài)部署。固態(tài)硬盤(pán)(SSD)以閃存為存儲介質(zhì),相比機械硬盤(pán)(HDD)具有讀寫(xiě)速度快、延遲低、抗震性好等優(yōu)勢,在分布式存儲中廣泛使用。
Ceph是當前業(yè)界應用最廣泛的開(kāi)源分布式存儲軟件,具備高擴展性、高性能、高可靠等特點(diǎn),同時(shí)支持塊存儲、文件存儲及對象存儲接口,已成熟應用于云計算的IAAS平臺。為更好助力分布式塊存儲系統性能及可靠性的提升,憶聯(lián)在Ceph平臺下開(kāi)展實(shí)測。
Ceph是一個(gè)統一的分布式存儲系統,可提供較好性能、可靠性和可擴展性,是面向云計算領(lǐng)域重要的底層存儲系統,已在國內運營(yíng)商、政府、金融、互聯(lián)網(wǎng)等多個(gè)行業(yè)落地應用。
圖1:Ceph技術(shù)架構圖
Ceph主要分為應用接口層、存儲基礎接口層、存儲對象層,接口層主要負責客戶(hù)端訪(fǎng)問(wèn),分為本地語(yǔ)言綁定接口、塊存儲設備接口和文件系統接口,展現了Ceph統一性的特征。
在Ceph塊存儲系統中,數據以塊的形式存在卷里,塊為應用程序提供大存儲容量,可靠性和性能都更高,卷可映射到操作系統中,由文件系統層控制。Ceph塊存儲系統引入的RBD(Ceph塊設備)協(xié)議為客戶(hù)端提供了高可靠、高性能、分布式的塊存儲,同時(shí)RBD也支持其他的企業(yè)級特性,例如完整和增量式快照,精簡(jiǎn)的配置,寫(xiě)時(shí)復制( copy-on-write)式克隆,以及全內存式緩存等,從而大大提高了它的性能。
圖2:Ceph塊存儲組件
1. 驗證環(huán)境
1.1 本次驗證硬件配置
類(lèi)型
型號
硬件配置
服務(wù)器
2U2路服務(wù)器
CPU:Intel Xeon Gold 6336Y @2.4GHz
內存:12*16GB
存儲控制器:支持RAID 1(系統盤(pán))
網(wǎng)卡:2*2端口25GE以太網(wǎng)卡
硬盤(pán)
憶聯(lián)SSD
系統盤(pán):2*480GB SATA
數據盤(pán):8*7.68 NVMe SSD(UH811a)
交換機
25GE 交換機
48端口25GE交換機
1.2本次驗證軟件配置
類(lèi)型 |
型號 |
版本 |
操作系統 |
CentOS(x86) |
7.6 |
存儲軟件 |
Ceph(開(kāi)源) |
12.2.8 luminous |
FIO |
IO測試 |
3.7 |
SAR |
網(wǎng)絡(luò )監控 |
10.1.5 |
IOSTAT |
盤(pán)側IO統計 |
10.0.0 |
MPSTAT |
CPU利用 |
10.1.5 |
1.3本次驗組網(wǎng)規劃
圖3:Ceph組網(wǎng)規劃架構圖
步驟1:創(chuàng )建RBD pool和RBD卷。配置參數osd_pool_default_size確定RBD Pool池的副本數,2表示兩幅本,3表示三副本,根據實(shí)際副本數需求,將該配置項添加到ceph.conf中即可。另外根據規劃,需要創(chuàng )建60個(gè)大小為100GiB的RBD卷進(jìn)行IO測試。
步驟2:下發(fā)IO測試前,需對服務(wù)器和客戶(hù)端的IO、CPU、網(wǎng)絡(luò )進(jìn)行監控,每2秒采集一次數據。
步驟3:在6個(gè)客戶(hù)端上同時(shí)對60個(gè)RBD卷下發(fā)IO,每個(gè)客戶(hù)端均需綁核,即每個(gè)fio綁定不同cpu核。
步驟4:完成IO測試后,需關(guān)閉服務(wù)端和客戶(hù)端的IO、CPU、網(wǎng)絡(luò )進(jìn)行監控。
步驟5:測試完成后,需匯總所有客戶(hù)端fio的BW、IOPS、平均時(shí)延,匯總對應的監控數據。對于BW和IOPS,累加各FIO對應結果即可;對于平均時(shí)延,累加之后需求平均值。
本次在 Ceph場(chǎng)景下驗證結果(以下結果為本次測試結果,僅供參考)如下:
3.1憶聯(lián)UH8系SSD在隨機讀及順序讀下的表現
圖4:Ceph場(chǎng)景下憶聯(lián)UH8系SSD讀性能
從圖4可以看出,在Ceph分布式存儲系統下,不論是二副本還是三副本,憶聯(lián)UH8系SSD的讀性能基本持平。在時(shí)延方面,二副本與三副本趨勢基本一致,1QD至32QD間較為穩定,在32QD后時(shí)延明顯增加。
3.2憶聯(lián)UH8系SSD在隨機寫(xiě)及順序寫(xiě)下的表現
圖5:Ceph場(chǎng)景下憶聯(lián)UH8系SSD寫(xiě)性能
如圖5所示,不論是在隨機寫(xiě)還是在順序寫(xiě)業(yè)務(wù)下,二副本寫(xiě)性能遠高于三副本性能,主要是由于副本復制帶來(lái)的網(wǎng)絡(luò )及存儲開(kāi)銷(xiāo),造成三副本寫(xiě)帶寬及寫(xiě)IOPS下降明顯。在總體時(shí)延表現上,二副本明顯優(yōu)于三副本。在時(shí)延變化趨勢上,二副本與三副本基本一致,皆在32QD后有比較顯著(zhù)的上升。
3.3憶聯(lián)UH8系SSD在混合讀寫(xiě)場(chǎng)景下的表現
圖6:Ceph場(chǎng)景下憶聯(lián)UH8系SSD混合讀寫(xiě)性能
從圖6可以看出,在4K 7:3混合讀寫(xiě)業(yè)務(wù)場(chǎng)景下,從16QD起,二副本IOPS性能優(yōu)于三副本。在時(shí)延整體表現上,二副本低于三副本,但在時(shí)延變化趨勢上,二副本與三副本基本一致,時(shí)延從32QD起,明顯上升。
結論:
從Ceph讀、寫(xiě)、混合讀寫(xiě)業(yè)務(wù)場(chǎng)景的實(shí)測數據中,可以看到憶聯(lián)SSD整體表現優(yōu)秀,可為Ceph環(huán)境提供極致存儲性能。在時(shí)延上,憶聯(lián)SSD在32QD及以下場(chǎng)景中,表現亮眼,可獲得更佳的時(shí)延體驗。
3.4 智能多流降WA,有效提升SSD壽命
圖7: Ceph場(chǎng)景下智能多流特性測試
在Ceph方案中,基于標準JESD 219業(yè)務(wù)模型,針對SSD分別開(kāi)啟、關(guān)閉智能多流進(jìn)行寫(xiě)放大測試,通過(guò)圖7對比驗證結果可以看到憶聯(lián)智能多流(IMS)開(kāi)啟后,SSD寫(xiě)放大降低20%+,極大提升了SSD壽命。
本次驗證清晰顯示了憶聯(lián)SSD 在Ceph分布式存儲系統下性能的穩定發(fā)揮,有效地支撐了Ceph的存儲需求,可提供始終如一的高性能,成為軟件定義存儲解決方案最優(yōu)的選擇。同時(shí),憶聯(lián)SSD獨有的智能多流技術(shù)可降低分布式存儲場(chǎng)景下SSD寫(xiě)放大,提升SSD壽命,幫助用戶(hù)減少總體TCO。對于Ceph分布式存儲系統而言,憶聯(lián)SSD是一個(gè)可真正做到高性能、高可靠、低成本的存儲解決方案。
地址:深圳市南山區記憶科技后海中心B座19樓
電話(huà):0755-2681 3300
郵箱:support@unionmem.com