<p id="iuri5"><del id="iuri5"></del></p>
  • <p id="iuri5"></p>
  • 
    

      機房360首頁
      當前位置:首頁 ? 廠商動態 ? 中國DPU行業發展白皮書(2021)

      中國DPU行業發展白皮書(2021)

      來源:芯語 作者: 更新時間:2021/12/13 14:44:13

      摘要:本白皮書內容共分4章內容,包括智能網卡的簡介及趨勢分析、DPU的簡介及分析、DPU產業分析及NVIDIA的DPU前景展望等。

        伴隨著數據中心的高速發展,通信能力和計算能力成為數據中心基礎設施中的兩個重要的發展方向。隨著網絡傳輸帶寬的增加,數據中心的計算資源被愈加復雜的基礎設施操作所占據,使得業務處理遭遇瓶頸。DPU的提出背景就是應對數據中心的數據量和復雜性的指數級增長帶來的性能瓶頸。DPU對數據中心來說,是通過更明細的分工來實現效率的提升、實現總體系統的成本最優化。

        本白皮書內容共分4章內容,包括智能網卡的簡介及趨勢分析、DPU的簡介及分析、DPU產業分析及NVIDIA的DPU前景展望等。

        第一章為智能網卡的簡介及趨勢分析。該章節介紹了智能網卡的發展背景,并與通用網卡的框架做對比,介紹了網卡及智能網卡的技術差別,對比了各種智能網卡不同實現的技術要點,分析了智能網卡發展的優劣勢,引出了DPU在數據中心的發展。

        第二章為DPU的簡介及分析,介紹了DPU的發展背景和DPU的定義,對DPU介紹并分析了其優勢和未來技術發展路徑。并從NVIDIA BlueField-3 DPU產品技術特點、產業定位分析、技術優勢分析、和技術對比等方面綜合介紹了NVIDIA BlueField-3 DPU產品技術情況。

        第三章為DPU的產業宏觀分析,分別列舉出目前市場上主流產品的產品技術特點,分析了DPU行業的市場競爭格局,概述了DPU應用市場的發展現狀,研究了DPU行業的發展趨勢,展望了數據中心的未來前景。

        第四章為NVIDIA DPU的前景分析,從結構通用化、功能多樣化、應用廣泛化,場景豐富化四個方面對NVIDIA DPU的前景進行了相關分析與展望。

        (一)智能網卡發展背景及技術簡介

        1、智能網卡發展背景

        網卡(Network Interface Card,簡稱NIC)是將電腦接入局域網的設備,網卡插在計算機主板的總線插槽中,負責將用戶要傳遞的數據轉換為網絡設備能夠識別的格式,通過網絡介質傳輸。

        智能網卡(Smart NIC),也稱智能網絡適配器,除了能完成標準網卡所具有的網絡傳輸功能之外,還提供內置的可編程、可配置的硬件加速引擎,提升應用的性能和大幅降低CPU在通信中的消耗,為應用提供更多的CPU資源。例如,在高度虛擬化的環境中,主機CPU需要運行OVS(Open Virtual Switch)相關任務,同時CPU還要處理存儲、數據包的在線加解密或離線加解密、數據包深度檢查、防火墻、復雜路由等操作,這些操作不僅消耗大量的CPU資源,同時由于不同業務之間的CPU資源爭奪,導致業務的性能不能發揮到最佳。

        網卡作為連接各種業務的樞紐,在網卡上對于上述業務進行加速,成為了最理想的場所。智能網卡的出現,為解決這個問題提供了新的思路,我們可以通過智能網卡來將OVS操作從CPU卸載下來,并完成存儲加速、數據加密、深度包檢測和復雜路由等各種功能,將花費在處理這些工作負載上的大量的CPU周期返回給主機CPU,同時解決了不同業務之間的沖突問題,大幅提升了各項業務的性能,也確保了服務器CPU能為應用提供最大的處理能力或者提供更多的虛擬機(VM)服務,創造更大的價值。

        2、網卡及智能網卡技術簡介

        (1)網卡架構技術特點

        網卡的架構如圖所示,一個典型的NIC由一個處理網絡流量的處理器、一對處理數據移動的DMA引擎和一個用于緩沖區和Doorbell的本地存儲器(通常是RAM)組成。

        (2)智能網卡架構技術特點

        智能網卡是具有獨立的計算單元,能完成特定的基礎設施功能操作的網卡,如智能網卡可完成特定的重組加速、安全加速等操作,相對于普通網卡可以帶來較大的性能提升。智能網卡上的可編程ASIC或FPGA單元有可以運行自定義軟件的計算層,計算層可以為網絡流量提供服務,并可以執行特定網絡及數據中心基礎設施功能,還為外部網絡和服務器OS之間提供了額外的安全層(也就是將安全保障由ToR交換機轉移向了該設備)。

        (3)各種智能網卡實現的技術要點對比

        目前的智能網卡有ASIC、FPGA和片上系統(SoC)三種實現。

        不同實現方式的智能網卡在成本、編程的簡易性和靈活性方面存在各種權衡。ASIC非常具有成本效益,可以提供最佳的性價比,但它的靈活性受ASIC中定義的功能的限制。

        基于FPGA智能網卡則可以在可用邏輯門約束范圍內,花費足夠的時間和成本來相對有效地支持幾乎任何功能。但FPGA編程簡易性較差且價格昂貴。對于更復雜的、更廣泛的用例,基于SoC(如NVIDIA的BlueField DPU)提供了最佳的智能網卡實施選項:良好的性價比、易于編程且高度靈活。

        (二)智能網卡的優劣勢分析

        智能網卡為數據中心網絡提供了幾項重要優勢,包括:

        1) 對于運營大型數據中心的公共云服務提供商而言,智能網卡可以釋放CPU核來為最終用戶運行業務應用程序,從而可能實現更高的服務器利用率。

        2) 各種基礎設施操作卸載。例如RDMA融合以太網(RoCE)、傳輸控制協議(TCP)、NVMeoF(NVMe-over-Fabrics)、互聯網安全協議(IPSec)、安全傳輸層協議(TLS)、深度報文檢測(DPI)、OVS(Open Virtual Switch)等。

        3) 某些類別的智能網卡是可編程的,可以針對廣泛的應用程序進行定制,并且可以重新組裝以滿足新的要求。

        智能網卡并非沒有缺點,在智能網卡被更廣泛的采用之前,需要解決以下問題:

        1) 與標準網卡相比,智能網卡的價格顯著溢價??紤]到相同的端口速度,溢價可能會影響智能網卡的普及,尤其是在批量生產時需要降低價格。

        2) 智能網卡的功耗較普通網卡高,一般20W~80W,隨著更多功能的集成,功耗也會越來越高。

        3) 鑒于智能網卡上支持的功能越來越多,其可編程性和復雜性也越來越高,它們可能會消耗大量工程資源來進行開發和調試,從而導致實施時間長且成本高。

        基于以上考慮,主要的云服務提供商和網卡供應商已經基于不同的解決方案開發了智能網卡:基于ARM的SoC、FPGA和定制ASIC。這些解決方案中的每一個都提供不同程度的卸載和可編程性, 本文中將會對于不同的實現進行對比。

        在智能網卡發展的過程中,NVIDIA將智能網卡升級為DPU(Data Processing Unit)。DPU延續了智能網卡的基本功能,并將通用工作任務做了加速處理。如圖4所示,相比智能網卡在數據層面上實現加速,DPU的最大的區別是能在實現智能網卡的功能的基礎之上實現控制面的加速。

        (三)DPU發展背景與定義

        1、DPU發展背景

        隨著數據中心的高速發展,通信能力和計算能力成為數據中心基礎設施的相輔相成的兩個重要發展方向。若數據中心僅關注計算能力的提升,通信基礎設施的提升跟不上,那么數據中心的整體系統性能依然受限,無法發揮出真正的潛力。DPU的提出背景就是應對這些數據量和復雜性的指數級增長。未來,需要將計算移至接近數據的位置,這是目前業界所公認的以數據為中心的體系結構下的創新。綜上,DPU對數據中心來說,是通過更明細的分工來實現效率的提升、實現總體系統的成本最優化。

        2、DPU定義及綜述

        DPU(Data Processing Unit)市場仍處于百家爭鳴的早期發展階段,各家廠商定義略有不同。目前市場上主流的DPU定義是NVIDIA提出的,即DPU是集數據中心基礎架構于芯片的通用處理器。它結合了:

        1) 行業標準的、高性能及軟件可編程的多核CPU,通?;谝褢脧V泛的ARM架構,與其它的SoC組件密切配合。

        2) 高性能網絡接口,能以線速或網絡中的可用速度解析、處理數據,并高效地將數據傳輸到GPU和CPU。

        3) 各種靈活和可編程的加速引擎,可以卸載AI、機器學習、安全、電信和存儲等應用,并提升性能。

        4) 具備開放性集成功能,未來支持更多功能集成。例如NVIDIA計劃未來在Bluefield-4產品中,將GPU集成至DPU中以完成數據中心的架構的終極整合。

        5) NVIDIA DPU的軟件開發包DOCA,提供了統一的面向各種應用的編程接口,讓用戶可以不用關注DPU的底層硬件接口而直接對硬件進行編程。

        DPU的出現實現了以數據為中心的業務和基礎設施操作的分離,大幅降低了業務的長尾延時,對于實現安全的、裸性能的、云原生的下一代大規模計算至關重要。

        (四)DPU優勢及發展趨勢分析

        (1)DPU實現了業務與基礎設施的操作分離

        DPU將基礎設施任務從CPU轉移至DPU,釋放CPU的資源,使更多的服務器CPU核可用于運行應用程序,完成業務計算,從而提高服務器和數據中心的效率。如通過在DPU上運行OVS,使業務域和基礎設施域分離,實現VM和VM間的高效安全通信,如圖6所示,傳統應用場景中會使用CPU來執行OVS操作,其效率較低,消耗CPU核較多,且VM之間的通訊延時較長。Red Hat在部署了DPU后,用DPU來執行同樣的OVS操作,其效率大幅提升,幾乎不消耗CPU核,VM之間的通訊延時也得到了大幅縮減,大幅減少了長尾延時,從而提升了應用的性能。

        (2)DPU卸載網絡數據實現性能提升

        DPU針對云原生環境進行了優化,提供數據中心級的軟件定義和硬件加速的網絡、存儲、安全和管理等服務。如圖7所示,紅帽Red Hat的容器化云平臺即服務(PaaS)OpenShift上,借助DPU優化數據中心資源利用率,將網絡相關的數據處理(如VxLan和IPSec等)卸載到DPU加速執行,在25Gb/s網絡條件下,OpenShift部署DPU用來加速,可以只用1/3的CPU占用了來達到25Gb/s性能,而在100Gb/s網絡條件下,未部署DPU的場景將達不到100Gb/s網絡線速,DPU可以帶來10倍的性能優勢。

        (3)DPU可以提供零信任安全保護

        零信任(Zero Trust)是一種以安全性為中心的模型,其基于以下思想:企業不應對其內外的任何事物授予默認信任選項。零信任可以減少數據泄露、拒絕未授權的訪問,因此在數據安全方面價值巨大。DPU可以為企業提供零信任保護,通過將控制平面由主機下放到了DPU,實現主機業務和控制平面的完全隔離,數據將無法進行穿透,保證安全性。DPU的出現相當于為每個服務器配備了一臺“計算機前的計算機”以提供獨立、安全的基礎設施服務,并與服務器應用域安全隔離。如果主機遭受入侵,安全控制代理與被入侵主機之間的DPU隔離層可防止攻擊擴散至整個數據中心。這樣DPU就解決了企業不愿直接在計算平臺上部署安全代理的情況。通過在完全隔離于應用程序域的DPU上部署安全代理,企業不僅能獲得對應用程序工作負載的可見性,還能在其基礎設施中執行一致的安全策略。

        (4)DPU助力實現“算存分離”

        DPU的BlueField SNAP技術方案通過在服務器系統的數據入口處引入計算資源,在DPU上獨立實現面對應用需求的存儲方案,幫助存儲廠商在數據中心中低成本地靈活部署、升級高級存儲協議,而完全不需要對現有軟件棧進行任何更改。

        存儲廠商可以把自家團隊為各行業應用開發的開放系統的直連式存儲(DAS)、縱向擴展(Scale-UP)、橫向擴展(Scale-OUT)、超融合架構(Hyperconverged)等存儲解決方案,零開銷地推廣到各個應用領域的現有業務處理平臺和數據中心基礎架構中,而所有的安全加密、數據壓縮、負載均衡等復雜又必須的功能則完全由DPU透明地卸載。存儲行業的革新算法和實現,可以在DPU架構中,獨立于服務器操作系統進行部署。DPU技術幫助存儲廠商實現真正的“算存分離”,完全發揮自家產品的技術優勢,打通最高效服務應用需求的通路。

        目前DPU以數據為中心作為計算架構,能針對數據中心的安全、網絡、存儲、AI、HPC等業務進行加速。從DPU概念的提出者NVIDIA的現有技術發展趨勢來看,未來的技術發展趨勢將會是高度集成化的片上數據中心的模式(Data Center Infrastructure on a chip),即一個GPU、CPU、DPU共存的時代。NVIDIA布局的數據中心從核心到邊緣(Edge)都采用了統一的一個計算架構——CPU、GPU、DPU,如圖所示,形成了“3U”一體架構。3U一體的統一計算單元架構將會讓管理程序、調度程序都會變得非常容易。通過CPU、GPU、DPU之間的協調計算,可以在數據中心和邊緣端都可以達到高性能與高安全性。

        (正文完)

        責任編輯:張華

      機房360微信公眾號訂閱
      掃一掃,訂閱更多數據中心資訊

      本文地址:http://www.thatfreebiesite.com/news/20211213/n0710142213.html 網友評論: 閱讀次數:
      版權聲明:凡本站原創文章,未經授權,禁止轉載,否則追究法律責任。
      相關評論
      正在加載評論列表...
      評論表單加載中...
      • 我要分享
      推薦圖片
      片源丰富、内容全面_亚洲A∨综合色区无码一区_亚洲91在线_精品国产在天天线在线