一、AI服務器的定義
1、從硬件架構來看,AI服務器主要指的是采用異構形式的服務器,表現形態多為機架式。在異構方式上,可以為CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多種加速卡。
2、而在其他組成部件上,如內存模塊、存儲模塊、網絡模塊與傳統服務器差別不大,主要的提升便是支持更大容量的內存滿足當下實時負載增加的需求,提供更多外置硬盤插槽,并廣泛支持NVME/PCIE等SSD,滿足數據洪流需求,網絡模塊主要表現為帶寬增加。
3、盡管AI服務器可以采用多種異構形式,但目前廣泛使用的是CPU+GPU。也因此,業界在談到AI服務器時,往往將其默認為GPU服務器。所以后面我主要談到的也主要為GPU服務器。
二、AI服務器的優勢
1、我們都知道,傳統服務器主要以CPU為算力提供者。而CPU為通用型處理器,采用串行架構,擅長邏輯計算,負責不同類型種類的數據處理及訪問,同時邏輯判斷又需要引入大量分支跳轉中斷處理,這使得CPU的內部結構復雜。也因此,CPU算力的提升主要靠堆核來實現。
2、隨著云計算、大數據、AI、物聯網等技術應用,數據在近幾年呈指數型增長,IDC統計顯示全球90%數據均在近幾年產生,這便對CPU的處理能力提出考驗,而目前CPU的物理工藝、核心數已接近極限,數據量卻不會停止,服務器的處理能力必須提升。因此,在AI時代下,僅由CPU做算力提供者的傳統服務器并不能滿足需求。
3、不同于CPU,GPU采用并行計算模式,單卡核心數達到上千個,擅長處理密集型運算應用,如圖形渲染、計算視覺和機器學習。經過幾年驗證,搭載GPU的服務器也被證實的確適用這個時代。
三、AI服務器市場現狀
1、IDC全球半年度人工智能系統支出指南預測顯示,2019年全球人工智能系統支出將達到358億美元,相比2018年增加44.0%。同時,人工智能系統支出到2022年將翻一番達到792億美元,2018年到2020年預測期內復合年增長率(CAGR)為38.0%。這一數值也意味著,AI服務器的市場有多廣。也因此,全球幾大服務器廠商均緊鑼密鼓部署著AI服務器。
2、目前,在中國市場上,浪潮的市場占有率最大,且處于絕對領先地位,份額達到51.4%,曙光和新華緊隨其后。從行業分布來看,互聯網當之無愧是AI服務器的主要用戶。而在GPU上,NVIDIA具有明顯優勢,其Tesla系列產品在AI基礎設施市場占據主導地位,尤其在線下訓練場景中處于壟斷地位。
3、而在AI服務器上,目前性能最強的為浪潮AI超級服務器AGX-5,AGX-5是專為深度學習和高性能計算的性能擴展設計,單機在8U空間里可以配置16顆NVIDIA Tesla V100 Tensor Core 32GB GPUs,擁有10240個張量計算核心,計算性能高達每秒2千萬億次。
據統計,當前在AI百強企業當中,80%的企業都是浪潮的合作伙伴!!
新聞熱點
疑難解答