【問題】
我們有臺HP的服務(wù)器,SSD在寫IOPS約5000時,%util達(dá)到80%以上,那么這塊SSD的性能究竟有沒有問題,為解決這個問題做了下面測試。
【工具】
blktrace是linux下用來排查IO性能的工具。它可以記錄IO經(jīng)歷的各個步驟,并計算出IO請求在各個階段的消耗,下面是關(guān)鍵的一些步驟:
Q2G – 生成IO請求所消耗的時間,包括remap和split的時間;
G2I – IO請求進(jìn)入IO Scheduler所消耗的時間,包括merge的時間;
I2D – IO請求在IO Scheduler中等待的時間;
D2C – IO請求在driver和硬件上所消耗的時間;
Q2C – 整個IO請求所消耗的時間(G2I + I2D + D2C = Q2C),相當(dāng)于iostat的await。
其中D2C可以作為硬件性能的指標(biāo),I2D可以作為IO Scheduler性能的指標(biāo)。
【測試一、比較HP SSD Smart Path開啟前后SSD的寫入性能】
1、HP SSD Smart Path開啟,SSD控制器Caching關(guān)閉,Cache Ratio: 100% Read / 0% Write
測試結(jié)果如下,主要關(guān)注D2C(IO請求在SSD上消耗的時間)的AVG值,約為0.217ms
2、HP SSD Smart Path關(guān)閉,SSD控制器Caching開啟,Cache Ratio: 10% Read / 90% Write
測試結(jié)果如下,主要關(guān)注D2C(IO請求在SSD上消耗的時間)的AVG值,約為0.0906ms
【結(jié)論】
前者在硬件上的消耗時間是后者的約2.4倍,對于寫入為主的系統(tǒng),建議HP SSD Smart Path關(guān)閉,SSD控制器Caching開啟
【測試二、比較noop和deadline兩種I/O調(diào)度算法的性能】
目前磁盤的調(diào)度算法有如下四種,我們系統(tǒng)中的配置值為deadline,很多資料上建議SSD配置為noop
1、Anticipatory,適用于個人PC,單磁盤系統(tǒng);
2、CFQ(Complete Fair Queuing),默認(rèn)的IO調(diào)度算法,完全公平的排隊調(diào)度算法
3、Deadline,按照截止期限來循環(huán)在各個IO隊列中進(jìn)行調(diào)度
4、noop,簡單的FIFO隊列進(jìn)行調(diào)度
下面都在HP SSD Smart Path關(guān)閉的情況下測試,
1、deadline, 主要關(guān)注G2I和I2D
2、修改為noop
【結(jié)論】
noop的IO Scheduler在等待和消耗的時間比deadline稍好,但差異不是很大。如果需要評估,還需要進(jìn)一步詳細(xì)的在各個場景下的測試。
下圖是網(wǎng)上資料對不同調(diào)度算法的測試比較:
【測試三、比較這臺服務(wù)器SSD與相同配置SSD的消耗時間】
AVG D2C為0.0906ms,0.0934ms,差異不大,說明這臺服務(wù)器的SSD從響應(yīng)時間上正常
總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,如果有疑問大家可以留言交流,謝謝大家對VeVb武林網(wǎng)的支持。
|
新聞熱點
疑難解答
圖片精選