近年來(lái),為滿(mǎn)足大規模的存儲應用需求,分布式存儲成為云環(huán)境下存儲底座構建的重要選擇,相較于傳統集中式存儲方案的可靠性、安全性以及數據利用率較低,分布式存儲具有易擴展、高性能、高性?xún)r(jià)比、支持分級存儲、多副本一致性及存儲系統標準化等優(yōu)勢。
塊存儲作為分布式存儲的一部分,主要為計算集群虛擬機、容器提供彈性卷服務(wù),而彈性卷 EVS 則是當前云業(yè)務(wù)平臺最核心的存儲服務(wù),對存儲性能要求極高,基于此,各大云廠(chǎng)商基本采用全閃化形態(tài)部署。
Ceph 則是當前業(yè)界應用最廣泛的開(kāi)源分布式存儲軟件,憑借高擴展性、高性能、高可靠等特點(diǎn),同時(shí)支持塊存儲、文件存儲及對象存儲接口,已成熟應用于云計算的 IAAS 平臺。為更好地助力分布式塊存儲系統性能及可靠性的提升,憶聯(lián)在 Ceph 平臺下開(kāi)展實(shí)測,本文為此次的測試結論。
一、Ceph 簡(jiǎn)介
Ceph 是一個(gè)統一的分布式存儲系統,可提供較好性能、可靠性和擴展性,是面向云計算領(lǐng)域重要的底層存儲系統,已在國內運營(yíng)商、政府、金融、互聯(lián)網(wǎng)等多個(gè)行業(yè)落地應用。
圖 1:Ceph 技術(shù)架構圖
Ceph 主要分為應用接口層、存儲基礎接口層、存儲對象層。接口層主要負責客戶(hù)端訪(fǎng)問(wèn),分為本地語(yǔ)言綁定接口、塊存儲設備接口和文件系統接口,展現了 Ceph 統一性。
在 Ceph 塊存儲系統中,數據以塊的形式存在卷里,塊為應用程序提供大存儲容量,可靠性和性能都更高,卷可映射到操作系統中,由文件系統層控制。Ceph 塊存儲系統引入的 RBD(Ceph 塊設備)協(xié)議為客戶(hù)端提供了高可靠、高性能、分布式的塊存儲,同時(shí) RBD 也支持其他的企業(yè)級特性,例如完整和增量式快照,精簡(jiǎn)的配置,寫(xiě)時(shí)復制( copy-on-write)式克隆,以及全內存式緩存等,從而大大提高了系統的性能。
圖 2:Ceph 塊存儲組件
二、憶聯(lián) Ceph 存儲方案驗證
1.驗證環(huán)境
1.1 本次驗證硬件配置
1.2本次驗證軟件配置
1.3本次驗證組網(wǎng)規劃
圖 3:Ceph 組網(wǎng)規劃架構圖
2、驗證方法
步驟 1:創(chuàng )建 RBD pool 和 RBD 卷。配置參數 osd_pool_default_size 確定 RBD Pool 池的副本數,2 表示兩幅本,3 表示三副本,根據實(shí)際副本數需求,將該配置項添加到 ceph.conf 中即可。另外根據規劃,需要創(chuàng )建 60 個(gè)大小為 100GiB 的 RBD 卷進(jìn)行 IO 測試。
步驟 2:下發(fā) IO 測試前,需對服務(wù)器和客戶(hù)端的 IO、CPU、網(wǎng)絡(luò )進(jìn)行監控,每 2 秒采集一次數據。
步驟 3:在 6 個(gè)客戶(hù)端上同時(shí)對 60 個(gè) RBD 卷下發(fā) IO,每個(gè)客戶(hù)端均需綁核,即每個(gè) fio 綁定不同 cpu 核。
步驟 4:完成 IO 測試后,需關(guān)閉服務(wù)端和客戶(hù)端的 IO、CPU、網(wǎng)絡(luò )進(jìn)行監控。
步驟 5:測試完成后,需匯總所有客戶(hù)端 fio 的 BW、IOPS、平均時(shí)延,匯總對應的監控數據。對于 BW 和 IOPS,累加各 FIO 對應結果即可;對于平均時(shí)延,累加之后需求平均值。
3、驗證結果
本次在 Ceph 場(chǎng)景下驗證結果如下:
①、憶聯(lián) UH8 系 SSD 在隨機讀及順序讀下的表現。
圖 4:Ceph 場(chǎng)景下憶聯(lián) UH8 系 SSD 讀性能
從圖 4 可以看出,在 Ceph 分布式存儲系統下,不論是二副本還是三副本,憶聯(lián) UH8 系 SSD 的讀性能基本持平。在時(shí)延方面,二副本與三副本趨勢基本一致,1QD 至 32QD 間較為穩定,在 32QD 后時(shí)延明顯增加。
②、憶聯(lián) UH8 系 SSD 在隨機寫(xiě)及順序寫(xiě)下的表現。
圖 5:Ceph 場(chǎng)景下憶聯(lián) UH8 系 SSD 寫(xiě)性能
如圖 5 所示,不論是在隨機寫(xiě)還是在順序寫(xiě)業(yè)務(wù)下,二副本寫(xiě)性能遠高于三副本性能,主要是由于副本復制帶來(lái)的網(wǎng)絡(luò )及存儲開(kāi)銷(xiāo),造成三副本寫(xiě)帶寬及寫(xiě) IOPS 下降明顯。在總體時(shí)延表現上,二副本明顯優(yōu)于三副本。在時(shí)延變化趨勢上,二副本與三副本基本一致,皆在 32QD 后有比較顯著(zhù)的上升。
③、憶聯(lián) UH8 系 SSD 在混合讀寫(xiě)場(chǎng)景下的表現。
圖 6:Ceph 場(chǎng)景下憶聯(lián) UH8 系 SSD 混合讀寫(xiě)性能
從圖 6 可以看出,在 4K 7:3 混合讀寫(xiě)業(yè)務(wù)場(chǎng)景下,從 16QD 起,二副本 IOPS 性能優(yōu)于三副本。在時(shí)延整體表現上,二副本低于三副本,但在時(shí)延變化趨勢上,二副本與三副本基本一致,時(shí)延從 32QD 起,明顯上升。
小結:從 Ceph 讀、寫(xiě)、混合讀寫(xiě)業(yè)務(wù)場(chǎng)景的實(shí)測數據中,可以看到憶聯(lián) SSD 整體表現優(yōu)秀,可為 Ceph 環(huán)境提供極致存儲性能。在時(shí)延上,憶聯(lián) SSD 在 32QD 及以下場(chǎng)景中,表現亮眼,可獲得更佳的時(shí)延體驗。
④、智能多流降 WA,有效提升 SSD 壽命
為更好解決讀寫(xiě)機制帶來(lái)的寫(xiě)放大而造成的 SSD 性能損耗及使用壽命縮短,憶聯(lián)推出 SSD 的智能多流特性,通過(guò)智能冷熱數據分類(lèi)算法,有效提高 GC(垃圾回收)時(shí)的效率,減少寫(xiě)放大,提升 SSD 性能。
圖 7:Ceph 場(chǎng)景下智能多流特性測試
在 Ceph 方案中,基于標準 JESD 219 業(yè)務(wù)模型,針對 SSD 分別開(kāi)啟、關(guān)閉智能多流進(jìn)行寫(xiě)放大測試,通過(guò)圖 7 對比驗證結果可以看到憶聯(lián)智能多流(IMS)開(kāi)啟后,SSD 寫(xiě)放大降低 20%+,極大提升了 SSD 壽命。
本次驗證證明了憶聯(lián) SSD 在 Ceph 分布式存儲系統中的穩定性能,可有效支撐 Ceph 的存儲需求,為 Ceph 提供始終如一的高性能,成為軟件定義存儲解決方案最優(yōu)的選擇。同時(shí),憶聯(lián) SSD 獨有的智能多流技術(shù)可降低分布式存儲場(chǎng)景下 SSD 寫(xiě)放大,提升 SSD 壽命,幫助用戶(hù)減少總體 TCO。對于 Ceph 分布式存儲系統而言,憶聯(lián) SSD 是一個(gè)可真正做到高性能、高可靠、低成本的存儲解決方案。
地址:深圳市南山區記憶科技后海中心B座19樓
電話(huà):0755-2681 3300
郵箱:support@unionmem.com