隨著數(shù)據需求工作負載滲透到并覆蓋傳統(tǒng)的CPU性能,GPU各供應商已經為數(shù)據中心補充了全新的設備和顯示卡。
最近、人工智能以及機器學習的潮流正在企業(yè)服務器之間形成連鎖反應。因為傳統(tǒng)的微處理器難以有效地處理這些來自要求苛刻的工作負載的信息,因此數(shù)據中心圖形處理器轉移至該領域填補相關的資源空白。
自70年代以來,圖形處理單元最初被用于從中央處理器處理視頻和圖形處理任務。與典型的CPU相比,這些系統(tǒng)具有不同的底層設計,GPU是為在單一數(shù)據流上最大化高速流水線上吞吐量而構建的。CPU也被設計為支持快速切換,并將信息從一個地方快速移動到另一個地方,如從主存儲到某一存儲系統(tǒng)。然而GPU具有不同的結構:它們可以并行處理并支持多個高速連接。這些微處理器有多組數(shù)據路徑進行大量的數(shù)據處理,這與圖形應用程序的需求非常吻合。
擴展數(shù)據中心GPU應用范圍
GPU在完成少量任務方面做得很好,但隨著任務要求逐漸擴大,相關相應也逐漸完成擴展。Nvidia傾向于把GPU與其他半導體供應商區(qū)分開來,并為GPU尋找更廣泛的用途。
首先,這些產品開始進入高性能計算領域。然而最近,GPU供應商專門為數(shù)據中心服務器設計了設備和顯示卡產品。專為服務器優(yōu)化的GPU使用高帶寬內存,并作為模塊集成到專用服務器設計中,或作為外圍組件互連快速(Peripheral Component Interconnect Express)附加卡的方式提供。但是,與游戲顯卡不同,這些顯示卡并未提供圖形化界面。
服務器各供應商將GPU與CPU連接起來,以充分利用CPU的優(yōu)勢。當CPU性能無法滿足處理數(shù)據密集型任務時,會提高CPU(與GPU的集成)性能(滿足任務需要)。
大數(shù)據、機器學習和人工智能應用程序具有很高的處理要求,需要處理大量的信息和不同的數(shù)據類型。這些特點與GPU的設計初衷非常吻合。
AI和機器學習各供應商均使用GPU來支持處理訓練神經網絡所需的大量數(shù)據。Gartner公司的分析師Alan Priestley表示,在這一領域的市場之中,相比于將程序部署到具有GPU的高性能服務器之上,擁有GPU的PC設備可用性可幫助軟件開發(fā)人員能夠在臺式電腦上開發(fā)他們的算法。
GPU在數(shù)據中心領域的應用
數(shù)據中心GPU的應用將來可能會不斷深入。GPU是任務關鍵型工作負載的重要基礎設施特性。Priestley說,IT組織可推行采購商品化的GPU,并且借助標準庫的使用,他們可以很容易地將其納入應用程序。
因此,服務器各供應商提供集成GPU模塊的專用服務器或支持GPU附加卡的產品。據Gartner公司的調查,面向服務器優(yōu)化的GPU顯卡和使用性能最高的處理器的模塊通常的成本在1,000美元到5,000美元之間。
已有相關產品的供應商開始將這些附加產品納入其產品線。
戴爾同時支持AMD公司的FirePro系列GPU以及Nvidia公司的GPU,專為虛擬臺式基礎設施和計算應用而設計,并具有支持高達1792個GPU核心的處理能力。Hewlett Packard Enterprise(HPE)ProLiant系統(tǒng)可與Nvidia Tesla,Nvidia GRID和Nvidia Quadro GPU協(xié)同工作。HPE Insight集群管理實用程序(HPE Insight Cluster Management Utility)將安裝并配置GPU驅動程序,可提供如溫度等GPU運行狀況的監(jiān)控。
為了準備數(shù)據中心GPU深入使用,管理員需要掌握如何管理這些處理器的專業(yè)知識。他們應該找到熟悉這項技術的有關人員,當然這絕非易事,因為技術不同于傳統(tǒng)的微處理器設計,而且盡管Nvidia提供了一些培訓材料,相關的課程仍然比較少。
文章編輯:CobiNet(寧波)
本公司專注于電訊配件,銅纜綜合布線系列領域產品研發(fā)生產超五類,六類,七類線,屏蔽模塊,配線架及相關模塊配件的研發(fā)和生產。
?2016-2019寧波科博通信技術有限公司版權所有浙ICP備16026074號