- Advertisement -
首頁 標籤 資料中心

資料中心

- Advertisment -

晶片設計內銷轉出口 客製化成Cisco首要挑戰

Cisco在網路晶片設計上深耕多年,過去從未採用晶片獨立銷售策略;而今面對市場變化,愈來愈多的企業放棄自行搭建私有網路,轉而使用雲端服務,考慮市場空間萎縮,加上大型資料中心技術架構的改變,對交換器與路由器網路設備市場皆造成衝擊,直接影響Cisco的核心業務收益,此次Cisco決定單獨出售交換器晶片,而這也是Cisco近年來最具突破性的銷售策略。 上述市場變化也促進大型資料中心與雲端服務提供商的發展機會,然而大型雲端服務提供商常有白牌交換器採購搭配自家開發的軟體方案的部署策略,因此交換器品牌業者近年來也陸續提出開放式解決方案,與白牌代工業者共同競爭,市場版圖挪移也逐漸侵蝕Cisco的市占率。此次Cisco決定單獨出售交換器晶片即是回應市場變化,亦為Cisco近年來最具突破性的銷售策略。 新的銷售策略包含客戶得以因應不同的商業模式採購所需技術,對Cisco來說,Silicon One不僅會為Cisco自家產品所採用,還可以直接對各大服務提供商及其潛在合作夥伴進行出售,新品發布的同時,Cisco也表明目前主要出貨客戶為Microsoft與Facebook。 帶領Cisco進入交換器晶片市場的產品主要是網路矽晶片架構Cisco Silicon One,以及建基於全新矽晶片的Cisco 8000系列電信等級的路由器產品。 Silicon One的最大亮點是提供統一的可編程矽晶片架構,其將助力營運商降低營運成本,並在更短的時間內推出新的業務服務;而單晶片系列也允許針對不同應用程序執行各種網路相關的功能,如回程、核心、邊緣與交換等,在性能上確然有其優越之處。Silicon One也是第一款設計用於電信營運商、大型雲端服務供應商、在網路規模市場中通用的網路晶片,未來將成為Cisco路由器產品系列的基礎,在性能上,網路傳輸效能高達每秒25Tbps。 首款Silicon One「Q100」型號可在不影響可編程性、緩衝、能源效益且保持功能彈性的情況下,提供超過10Tbps的網路頻寬,新產品在定位上標榜大容量、低成本的優勢,彰顯Cisco切入市場的發展利基,希望藉此滿足大型雲端服務業者對容量及性價比的需求。 交換器晶片大廠動態與新品盤點 Marvell自2018年起陸續進行多個併購案,首先是2018年收購伺服器處理器知名廠商Cavium,取得ARM處理器架構開發的ThunderX系列產品;2019年後再分別買下特定應用積體電路(Application-specific integrated circuit, ASIC)業者Avera與乙太網路IC設計業者Aquantia,希望在ASIC領域再下一城。 原本Marvell在伺服器、交換器、儲存裝置就已經有對應產品,其看重Cavium在系統單晶片(System on a Chip, SoC)處理器、網路通訊、安全晶片等領域的優勢,希望能夠增加產品完整性,為客戶打造更完整的平台,在技術實力提升的同時,進一步往雲端、邊緣互連、全覆蓋等面向轉型,並深耕基礎設施、雲端控制、物聯網層級領域,最終切入資料中心市場。 得益於對Cavium的收購,2019年3月,Marvell發布了將會應用於邊緣運算市場的交換器晶片Prestera CX 8500(以下簡稱CX 8500),最高可支援12.8Tbps頻寬,除頻寬表現亮眼外,更大的特點是模組化晶片設計給CX 8500充分的靈活性,多核封裝下的晶片可支援業界最高的一千個Port,將原有的資料中心四層架構精簡為兩層,對成本的降低和維運管理性都有很大的幫助。 為邊緣運算處理而生的CX 8500可根據不同需求增減模組中的晶片數量,進一步為客戶打造客製化解決方案,尤其邊緣運算數據量不比雲端運算規模,不見得需要到12.8Tbps的傳輸需求(一般會出現1~4T不等的頻寬需求),此種應用就較適合選用Marvell的解決方案。 作為一款模組化的晶片,CX 8500在可擴展性、散熱性以及I/O連接埠方面更具優勢,除了彈性支援2~12.8Tbps傳輸需求外,其在功耗上的表現,以數據流量增加一倍的情況下計算,系統功耗只增加20%;此外CX 8500還提供25Gbps和50Gbps兩種輸出入(Input/Output, I/O)選擇,最多支援1,000個連接埠,遠高於傳統交換器IC所支援的128個連接埠數目,進而在系統層級降低35%以上能耗,並多出25%的總暫存空間,性能表現相當良好。 收購Barefoot Networks...
0

施耐德關鍵電力事業部2019年屢獲肯定

施耐德電機(Schneider Electric)在日前宣布旗下關鍵電力事業部(Secure Power Division)在2019年共斬獲了20多個國際獎項,這些獎項橫跨領導力、產品和計畫等領域,展現其在資料中心和IT基礎建設領域的地位。除此之外,關鍵電力事業部最近更在獨立研究機構Canalys的「2019 EMEA通路領導力矩陣 (EMEA Channel Leadership Matrix)」中獲得冠軍(Champion status)頭銜,同時亦在許多媒體,產業分析專家及產業機構的各項評比中名列前茅。 施耐德電機關鍵電力事業部執行副總裁Pankaj Sharma表示,該公司在過去一年中所獲得的認可,鞏固該公司於業界的地位,信守對客戶、員工和環境的責任;同時致力於為客戶提供創新的能源管理解決方案,進而使所有人都可以生活在全面電氣化以及數位化的世界。這些獎項彰顯努力付出終能成功達成目標。 施耐德電機的關鍵電力事業部在資料中心產業的歷史十分長久,現今該部門正在推動全面的網路邊緣轉型。其資料中心和邊緣運算解決方案在2019年屢屢獲獎而備受肯定,其中包括EcoStruxure IT Expert及EcoStruxure Pod資料中心。 根據Infonetics Research的資料顯示,每年光是環境風險所造成的停機意外占資料中心運作中斷原因的11%。針對邊緣資料中心環境的管理及監控,施耐德電機亦推出了NetBotz監控管理系統,包含NetBotz Rack Monitor 750和NetBotz Camera Pod 165。NetBotz 750從根本全面創新,透過多種感測器以及監視設備,為IT專業人員提供必要的監控能力,以應對邊緣資料中心等高度專業化的關鍵設施可能發生的環境威脅,如失火、風災等嚴重意外,不僅可協助簡化IT專業人員在管理上的困難度,也能有效降低邊緣資料中心的實體安全風險。 以UPS不斷電系統以及機房基礎設施管理著名的APC by Schneider...
0

AI應用紛起 推論晶片炙手可熱

近年人工智慧(Artificial Intelligence, Al)熱潮帶來演算法、軟體、硬體等新發展,為了加速AI運算,半導體產業也積極開發對應的晶片,雖然早前於2005年業界即提倡過往只用於遊戲的繪圖處理器(Graphic Processing Unit, GPU)能有更多運用,如視訊剪輯(影片編碼轉檔)、高效能運算(High-Performance Computing, HPC)等,期望從遊戲娛樂專用轉向廣泛性運算,稱為GPGPU(General-Purpose GPU),但直至近幾年方由NVIDIA的Tesla系列帶動AI加速晶片熱潮。 Tesla系列雖取得市場先機,但AI技術與市場逐漸演變出不同需求,一是依據布建位置的不同分成資料中心(Data Center, DC)、邊緣(Edge)兩類,前者位於集中且有密集設備的資訊機房內,後者則裝設在各種需求現場,例如視訊監控的攝影機、機箱閘道器及自駕車內等。 另一則是依據AI程式開發與運用兩階段區分,AI程式在開發過程中也稱為訓練學習(Training)階段,開發完成後用於辨識或預測則稱為推論(Inference,亦稱為推理、推算、推測)階段。 推論晶片成長潛力佳 因應上述需求,AI晶片也必須改變發展,由於資料中心有源源不絕的電力因而於AI晶片設計時以效能為優先,晶片與晶片加速卡可動輒數十、數百瓦功耗;邊緣則須在用電上有所節制,攝影機可能僅以網路線方式取得若干電力(Power over Ethernet, PoE),因此晶片多必須低於10瓦,甚至僅1瓦、2瓦,閘道器亦僅比攝影機寬裕些;自駕車則因有汽車電瓶支撐且需對外界變化快速反應運算,因此為數十瓦、上百瓦電能。 除因應布建環境對功耗設計要求外,AI晶片因訓練、推論兩階段的不同也須改變,訓練階段由於AI的特徵、演算法、權重參數等均未定,需多方嘗試與調整,所以需要較高精度、較高位元數的運算,如32位元浮點數;訓練完成後則有機會簡化,調整成較低位元數,或將浮點數轉成整數,如16位元浮點數或8位元整數等。 事實上AI演算法仍持續精進,過去訓練以32位元浮點數為主,也開始出現16位元、8位元的浮點數訓練,如IBM於2018年的研究發表,推論可降至8位元整數,甚至出現4位元整數、2位元整數(圖1)。 圖1 IBM研究顯示AI訓練、推論的精度需求均持續降低中。 雖然用於訓練的AI晶片也能用於AI推論,但以32位元浮點數為主的處理單元執行8位元整數,在電路面積與功耗等方面並不經濟,且多數認為未來AI推論的需求將遠大於AI訓練。一個AI應用程式在一年內僅會數次調整參數而重新訓練開發,但訓練完成後則是全年隨時在推論執行(如臉部辨識的門禁系統),因此經濟節能的推論運算成為晶片商新焦點,甚至其市場會大於訓練用AI晶片市場。再將資料中心、邊緣、訓練、推論四者交叉權衡考量,由於訓練必須耗用大量且長時間運算,幾乎只會在資料中心內進行;即便不在資訊機房,亦僅在研究單位的桌上型電腦系統上進行,依然屬於偏重度用電的後端系統,短期內訓練不易在邊緣端進行,除非演算法、軟體面有重大突破,或僅為簡易少量訓練,邊緣大致上為推論晶片市場。 至於資料中心,原有高位元、高精度的AI晶片將持續用於訓練,但將逐漸導入推論專用晶片以便提升資料中心的經濟效益,除非在所有推論晶片均已投入運算仍無法滿足需求時,方才調用訓練用AI晶片轉而投入推論運算,屬應急性調度。 在分析前後端、訓練推論的四種情境後,2019年1月麥肯錫(McKinsey)發表的專文對四個市場進行預測,認為後端推論市場將有最大成長潛能(圖2)。 圖2 McKinsey&Company對四類型AI硬體市場的預估。 機房AI訓練/推論晶片各有方案 機房AI推論晶片有可能為最大潛力市場,然而機房訓練與機房推論的分際為何,一是晶片商發表晶片時即明確定義市場取向,如英特爾(Intel)Nervana的NNP-T/NNP-I晶片,前者為機房訓練晶片,後者為機房推論晶片;又如Intel近期購併的以色列Habana Labs,其機房訓練晶片為GAUDI方案,機房推論晶片為GOYA HL-1000晶片。 或者百度(Baidu)的818-300為訓練晶片,818-100則為推論晶片;NVIDIA亦採訓練、推論分別推展策略,其T4/Tesla T4即為推論專用晶片,有別於Tesla V100訓練晶片。 不過也有業者只專注於機房訓練或機房推論,例如谷歌(Google)的Cloud TPU並未有推論專用版,仍為訓練、推論合一,Google僅在邊緣推展推論專用晶片,即Edge TPU;亞馬遜AWS(Amazon Web Services)只自主發展用於推論的Inferentia晶片,訓練仍屬意使用NVIDIA Tesla;高通(Qualcomm)Cloud AI...
0

緩解資料移動/存取瓶頸 HBM大幅加速AI應用

本文將以賽靈思(Xilinx)旗下解決方案為例,透過深度學習和資料庫加速的案例,闡述一個均衡且支援三星HBM2的賽靈思運算加速器系統,如何提供具備最佳靈活性、效率和效能的高效運算加速解決方案。 近年異質運算逐漸興起,拓寬了後摩爾定律時代在加速運算密集型作業負載的創新。在當前資料中心產業中,普遍採用異質運算進行加速的作業負載種類繁多,包含人工智慧、即時視訊轉碼和基因組分析,而這些僅僅是其中的一小部分。 然而,長期以來,DDR記憶體架構的演進並不足以跟上運算加速領域的創新步伐。在過去十年裡,並行記憶體介面的頻寬效能雖有改善但進展緩慢;現今FPGA所支援的最大DDR4資料速率仍然只有2008年DDR3的2倍左右。相比之下,自2008年以來,FPGA的運算能力已提高了近8倍,且隨著配有AI核心的Versal元件推出後,預計未來兩年內還有更大的成長空間。因此,在資料中心領域,記憶體頻寬與容量將成為眾多運算和記憶體頻寬密集型作業負載發展的主要限制因素(圖1)。 圖1 運算容量的提升與DDR頻寬的改善比較 HBM效能/傳輸更高更快 HBM是一種高速的系統級封裝(SiP)記憶體技術,與採用傳統打線接合封裝(Wire Bonding-based Package)的記憶體產品相比,它使用垂直互聯的DRAM晶片堆疊和一個寬(1024位元)介面,來達到更大的儲存容量與更高的資料頻寬。聯合電子裝置技術協會(JEDEC)在2013年開始採用初代HBM標準,並在2016年1月批准第二代HBM2版本為業界標準。 HBM2標準支援4個或8個8Gb的DRAM晶粒逐個堆疊在一起,由一個2.5D矽「中介層」提供支援,該「中介層」可將記憶體堆疊與底層電路板連接起來。堆疊一些晶粒(通常是記憶體)而不是其他晶粒(通常是處理器)的多晶片封裝被稱為2.5D元件(圖2)。 圖2 HBM和2.5D架構 由於多個堆疊能被添加在同一個封裝中,因此與傳統的多晶片DRAM產品相比,當堆疊多個晶粒在一個電路板上並將其堆疊得更緊密時,可以大幅減少HBM記憶體封裝的水平占板面積。此外,HBM技術還縮短了訊號在元件之間的傳輸距離,因此可以提高系統效能,且較短的傳輸距離可以減少傳輸定量資料所需的能量(圖3)。 圖3 HBM晶粒堆疊技術 HBM具備先進的TSV技術、微尺度互連和突破極限的I/O數量,可以增加記憶體頻寬,與其最強勁的競爭對手,也就是用於繪圖卡的繪圖用雙倍資料傳輸率(GDDR)記憶體相比,HBM明顯能提供更高的效能。在元件級別,單個三星HBM立方體可以提供高達307GB/s的資料頻寬,比GDDR5晶片高出近10倍的資料傳輸率。而在系統級別,與採用GDDR的解決方案相比,HBM能提供近3倍的輸送量,並使用少於80%的功耗,同時還可以節省寶貴的電路空間(圖4)。 圖4 HBM與GDDR頻寬比較 FPGA元件助力 記憶體頻寬再上層樓 以下將以賽靈思旗下FPGA產品為例,該公司支援HBM的Virtex UltraScale+ FPGA大幅改善了記憶體頻寬,例如2個三星HBM2記憶體堆疊就可提供高達460GB/s的速率。當將1或2個HBM2堆疊與各種尺寸的FPGA邏輯(多達285萬個邏輯單元)和DSP(高達9,024個DSP48E2分割,可提供28.1峰值INT8 TOP)進行配對時,使用者就可以選擇搭配全新支援HBM的UltraScale+元件系列,為其應用選擇最佳的運算能力與記憶體頻寬/容量組合。 另一方面,除了支援HBM的Virtex UltraScale+FPGA,賽靈思還推出Alveo U280資料中心加速器卡,由16奈米UltraScale+架構所打造,採用8GB三星HBM2,可為資料庫搜尋與分析、機器學習推論及其他記憶體限制應用提供更高等級的加速功能;並涵蓋了CCIX支援,可以利用現有的伺服器互聯基礎設施和即將推出的CCIX處理器,提供高頻寬、低延遲的快取一致性共用記憶體存取。許多受限於記憶體的應用都能受益於支援HBM的UltraScale+元件,本文將以深度神經網路與資料庫加速方面的案例為例,展示支援HBM的UltraScale+元件之優勢。 強化記憶體頻寬提升AI語言翻譯效能 如今,各種雲端應用都有提供自動即時語言翻譯服務,其可透過採用神經網路的機器學習方法在兩種語言之間翻譯語句(稱為機器翻譯),編碼器-解碼器架構強化當今的商業自動化翻譯服務。 在使用機器執行翻譯任務時,兩種語言的單詞經由一個稱為單詞嵌入的過程,以高維向量的形式呈現;因此,單詞之間的關係可以透過向量進行量化建模和反映。遞迴神經網路、卷積神經網路和基於注意力的模型等架構通常用於執行編碼和解碼功能。 近期研究表示,在語言翻譯中,只有採用注意力的網路能達到最高的準確性。研究論文中所描述的注意力機制,即縮放點積注意力,是由兩個矩陣乘法和其他函數(Scale、Mask和Softmax)所構成的。多頭注意力結構通常由多個並行的縮放點積注意力與不同的輸入投影構成,該結構與前饋網路被共同用於建構整個語言翻譯模型的解碼器和編碼器(圖5)。 圖5 轉換器--基於注意力神經網路的語言翻譯模型 如圖5所示,基於注意力的語言翻譯模型的主要運算強度來自於對縮放點積注意力和前饋網路的點積運算。這些點積通常被組合到矩陣乘法運算,以達到更高效的運算。然而,與在整個空間中大量重複使用權重參數以減少資料移動痕跡的傳統卷積神經網路不同,這類基於注意力的模型幾乎不重複使用輸入空間參數,導致對矩陣乘法運算的記憶體頻寬要求要高出許多。 我們建置了一個用於語言翻譯且基於注意力的先進神經網路的轉換器分析模型,並將其映射在UltraScale+元件上運行。FPGA建置方案的架構採用DSP脈動陣列來執行矩陣乘法,中間的啟動資料儲存在晶載URAM中,可以消除啟動時所造成在處理器和外接記憶體之間頻繁進行的資料移動。HBM或DDR則用於儲存所有嵌入字典的單詞嵌入與權重參數。 針對具有不同句子長度(L)和句子數量的英德翻譯任務,也稱為批量大小(B),對其進行分析就可以瞭解附加DDR的UltraScale+元件和支援HBM的UltraScale+元件對於延遲和傳輸量之間的權衡。這一研究對於DDR與HBM的建置,假設使用具有256個16位元輸入和32個16位元輸出的脈動陣列,並將其運行在710MHZ的UltraScale+元件上。詳細的傳輸量與延遲關係圖請見圖6。 圖6 採用具有HBM和DDR4的UltraScale+元件進行語言翻譯效能分析。 長度為8的句子在4條通道上運行的最低延遲約為15.7ms,傳輸量為508符號/秒。一條DDR通道用於存取單詞嵌入資料,其餘三條DDR通道用於載入權重。對於支援HBM的元件而言,一個長度為8的句子之最小延遲為2.2ms,比DDR介面低7倍以上。DDR介面在兩種句子長度上都不能達到7ms以下的延遲,但是支援HBM的元件在傳輸量為10,419符號/秒,且句子長度為8的情況下可達到6.1ms的延遲,在輸送量為4,682符號/秒,且句子長度為16的情況下可達到6.8ms的延遲。 借助通用矩陣運算資料庫加速AI應用 與前面討論的機器翻譯案例一樣,幾乎所有現代深層神經網路(深度學習)的主要運算都是以矩陣乘法的形式來完成。除了機器翻譯以外,在資料中心廣泛部署的其他典型深度學習應用有影像/視訊分析、網路搜尋的搜尋排名系統、廣告投放的推薦系統、內容/來源推薦、語音辨識以及自然語言處理。 為了更佳地支援更多的深度學習應用,賽靈思開發了通用矩陣運算(GEMX)資料庫,用於加速元件上的矩陣運算,該元件由SDAccel開發環境提供支援。該資料庫包括三個組件:引擎庫、主機代碼編譯器與以應用或系統建構的環境,引擎庫則由一組具有BLAS函數介面的C++範本組成,可以在FPGA上進行矩陣運算。 主機代碼編譯器將主機代碼矩陣函式呼叫編譯成一系列指令,用於觸發FPGA上的矩陣運算,建構環境採用GNU make流將FPGA和主機代碼影像生成過程自動化。此外,該產品還支援使用者對系統的各個方面進行配置,例如,FPGA平台、FPGA影像中建置的引擎數量等。 雖然GEMX引擎的兩個輸入矩陣都來自DDR記憶體,但GEMX的傳輸量取決於DDR介面的頻寬。圖7的分析比較了使用DDR4連接UltraScale+元件的GEMX與使用支援HBM的UltraScale+元件的GEMX之效能。該分析模型充分利用了記憶體頻寬,並假設使用32×32×128的矩陣作為GEMX的輸入。結果如圖7所示,與使用4條DDR通道相比,支援HBM的元件可以將GEMX的效能提升約3.6倍。 圖7 GEMX效能 HBM讓記憶體存取/使用更有效 受益於HBM記憶體控制器中的靈活定址方式,支援HBM的UltraScale+元件具備的獨特優勢之一就是HBM通道的靈活並行使用。HBM通道的存取與使用,是能夠完全地被可重配置和重新編程,還可以通過FPGA邏輯輕鬆存取。 如圖8所示,使用者可以將原始資料庫檔案剝離到多個HBM通道中,並讓並行處理運算單元執行不同的資料庫操作,以獨立並行存取資料庫的不同部分而無需進行同步。這一特性有助於改善即時案例中的操作延遲並有效地使用HBM,因為所有運算單元都可以即時回應資料庫查詢,毋須批次處理或同步。在上述機器翻譯案例中,該特性還用於分離兩個通道進行單詞嵌入存取,而其餘通道則用於高頻寬權重參數傳輸。 圖8 靈活的並行記憶體通道存取 雖然三星HBM在AI和資料庫加速等案例中的重要性已得到證實,但還有很多其他的資料中心作業負載也可從HBM中顯著獲益。總而言之,在資料中心領域,隨著異質運算加速的發展趨勢以及運算設備技術的創新,迫切需要在運算單元附近附加像HBM這樣的高效能記憶體系統;而支援HBM的UltraScale+元件具有獨特的價值,以深度學習和資料庫加速為例,賽靈思支援HBM的UltraScale+元件就發揮出運算加速的新潛力,並將其引領至更高的水準。 (本文由賽靈思提供)
0

三大戰略循序漸進 賽靈思力建自適應運算新時代

人工智慧(AI)、5G的出現牽動革新浪潮,為打造靈活多變、萬物智慧的世界,賽靈思(Xilinx)啟動資料中心優先、加速核心市場發展及驅動自行調適運算三大策略,期能藉此讓更多各式各樣的軟體和系統開發者加入自行調適運算的世界,釋放創新活力,讓產業邁入嶄新的自適應運算時代,迎接未來AI、5G創新浪潮。 以數據資料為優先力推資料中心轉型 人工智慧(AI)的發展、日益複雜的工作負載與非結構化資料的爆炸式成長,正迫使資料中心快速轉型。隨著5G、AI、雲端運算、物聯網及自動駕駛等新一代資訊技術快速演進,全球資料正呈現指數級增長並呈現大量聚焦的態勢。 根據IDC預測,從2018~2025年,全球每年被創造、蒐集或複製的資料將成長五倍以上,預計將從2018年的32ZB增至2025年的175ZB,而中國將於2025年以48.6ZB的資料量及27.8%的占比,成為全球最大的資料匯集地。無論是公有雲,私有雲還是混合雲,面對無止境的資料成長,都希望能夠大幅提升資料中心的使用率、效能與能源效率,並且降低營運成本和總成本,現代資料中心的升級轉型勢在必行。 也因此,賽靈思將資料中心視為重要戰略市場。賽靈思執行副總裁兼資料中心事業部總經理Salil Raje(圖1)表示,以資料中心為優先的戰略共有三個細分層面,分別是運算、網路、儲存。目前成長最快速的是運算市場,不過,網路、儲存市場的成長速度也相當驚人。 圖1 賽靈思執行副總裁兼資料中心事業部總經理Salil Raje表示,雲端移至邊緣運算的趨勢,對資料中心成長大有助益。 Raje進一步說明,同時,從雲端移至邊緣運算的趨勢,也帶動了資料中心的成長。邊緣運算的興起,使得許多應用不見得只能在雲端運作,透過邊緣資料中心也可實現,這樣的運算遷徙對於資料中心業務成長有很大助益。當然,未來並非是所有的運算都會轉移至邊緣,而是會呈現混合的狀態,也就是既有雲端運算也同時有邊緣運算,現有的雲端市場仍呈高速發展。 因應大量的運算需求,2018年的Xilinx XDF上,賽靈思先推出功能強大的Alveo加速器卡產品系列。該產品旨在大幅提升雲端和在地資料中心業界標準伺服器效能,推動自行調適的普及應用。該產品系列目前已擴展至Alveo U50、U200、U250、U280四款產品,並已在美國、歐洲和中國市場得到廣泛的應用。而在2019年,賽靈思則宣布收購Solarflare,將FPGA、MPSoC和ACAP解決方案與Solarflare的超低延遲網路介面卡(NIC)技術以及Onload應用加速軟體整合,進而實現全新的融合SmartNIC解決方案。 據悉,兩間公司合併後所開發的SmartNIC將能在介面卡上直接運行網路、儲存與運算加速,省去在伺服器上運行這類工作負載。同時,賽靈思也會將Solarflare網路技術整合至Alveo加速卡系列上,協助關鍵資料中心的工作負載。 Raje指出,現今的CPU已逐漸無法負荷愈來愈龐大的運算需求,因而需要使用加速器的解決方案實現更多應用,並提高運算速度;然而,隨著應用愈來愈多元,不太可能一出現新的應用,就重新設計、開發一個晶片,因此便需要建立所謂的自行調適運算,也就是讓產品有強大的自我調整能力。 Raje說明,以該公司產品為例,由於硬體是可編程設計,因此在實際應用上就如同軟體一般,可以針對不同的應用情景或需求進行訂製,以處理不同的工作負載。簡而言之,靈活應變的高效能運算、儲存和網路加速自行調適運算加速平台,正在加速驅動資料中心轉型,該公司旗下Alveo加速器卡平台、Versal自行調適運算加速平台結合不斷壯大的合作夥伴生態系,將為資料中心企業升級轉型和持續發展提供強大動能。 5G/自動駕駛為兩大重點核心市場 除了以資料中心為優先外,賽靈思也積極布局核心應用市場,而5G和自動駕駛便是兩大重點目標。首先在5G方面,隨著5G業務迅速成形,其所覆蓋的廣度與深度正達到前所未有的水準,而5G帶來的商機也明顯可期。 賽靈思執行副總裁兼有線與無線事業部總經理Liam Madden(圖2)表示,5G將對該公司營收帶來顯著的成長,在5G時代,基站數量和4G相比,至少增加50%,因5G有著不同的頻段,因此基站的數量增加會帶來更多的收益成長。 圖2 賽靈思執行副總裁兼有線與無線事業部總經理Liam Madden指出,5G商機龐大,預估收入將會是4G時代的3~4倍。 另外,5G時代天線設計愈來愈複雜,4G時代多是透過4根天線進行收發,但5G時代至少是64根天線,而有這樣的數量變化,對於晶片的要求也會更高。將上述這些因素疊加起來,該公司預測5G時代的收入將會是4G時代的3~4倍。 因應5G商機,賽靈思也宣布擴大旗下Zynq UltraScale+射頻(RF)系統單晶片(SoC)系列,推出具有更高RF效能與擴充性的產品,新一代的元件能涵蓋6GHz以下(sub-6GHz)的所有頻段,滿足部署新一代5G網路的關鍵需求;同時可支援直接射頻取樣,內含高達每秒取樣50億次(GS/S)的14位元類比數位轉換器(ADC)及每秒取樣100億次的14位元數位類比轉換器(DAC),兩者的類比訊號頻寬皆高達6GHz。 另外,新產品在單顆晶片中整合更高效能的射頻資料轉換器,因此能提供廣泛的頻段覆蓋率,滿足業界部署5G無線通訊系統、有線電視存取、先進相位陣列(Phased-array)雷達解決方案以及包含測試、量測和衛星通訊在內的其他應用之需求。省去分離式元件能減少高達50%的功耗與元件空間,使此產品成為電信營運商落實大規模多輸入多輸出(mMIMO)基地台布建5G系統的理想選擇。 除此之外,賽靈思也與三星聯手在韓國完成全球首例5G NR商用部署,透過UltraScale+平台功耗小、記憶體容量大等特性,助力三星開發出輕量、外形精實、低功耗的5G產品。 另一方面,除了個人用戶端的應用,工業互聯網、自動駕駛等也是5G業務的重要應用領域,並且對5G業務提出了低延遲的要求,即資料傳輸要在幾毫秒之內完成。對此,賽靈思提供可靈活應變且業界獨有的5G通訊平台,其採用的高度整合晶片具有RF ADC和DAC、加速5G NR功能以及可以滿足mMIMO無線電、大型基站(Macro Base Station)和蜂巢式網路部署所需的最高效率效能。 另一方面,布局自動駕駛市場,賽靈思也於近期發布全新高效能的自行調適元件XA Zynq UltraScale+ MPSoC 7EV與11EG,進一步擴大其車規級16奈米系列產品。這兩款新元件能提供最高的可程式化容量、效能與I/O功能,並為L2+到L4等級的先進駕駛輔助系統(ADAS)與自動駕駛應用提供高速資料彙整、預處理和分配(DADP)及運算加速。新款元件提供超過65萬個可程式化邏輯單元與近3千個DSP單元,和前一代最大元件相比增加2.5倍。在新增這兩款高效能元件後,包括汽車製造商、自駕計程車開發商和一級供應商都能在一定的功耗範圍內執行DADP與運算加速,加速自動駕駛車輛的生產部署。 賽靈思汽車戰略與客戶市場行銷總監Dan Isaacs(圖3)指出,未來汽車自動化駕駛的程度會越來越高,汽車將會由系統進行控制,而非駕駛員,進而衍生出全新的交通服務現象以及商業模式。然而,若是要實現自動駕駛,其中一項關鍵就是要達到低延遲。 圖3 賽靈思汽車戰略與客戶市場行銷總監Dan Isaacs說明,FPGA靈活性高,因此比ASIC更適合汽車多變的設計。 Isaacs說明,低延遲對於自動駕駛而言十分重要,車用系統要反應速度非常快才能確保安全。在正常情況下,若是用傳統CPU、GPU或是DSP等元件,雖然說可以實現高吞吐量,但卻難達到低延遲,因為處理時間較長,意味著反應時間也長。為此,該公司致力發展高吞吐量卻又能有低延遲的車用元件,同時還要保有「不斷變化」的能力;這都是因為自動駕駛搭載的感測器數量愈來愈多,使得運算需求不停變化,而只有可擴展的自適應性產品才能滿足運算、技術的不斷變遷。 然而,現今除了CPU、GPU之外,也已有越來越多車商或半導體業者採用高效、低功耗且能大規模量產的ASIC(例如特斯拉),因應自動駕駛所需運算需求,或處理、分析大量的感測數據(如雷達、光達、攝影機等),而這是否會對FPGA有所影響? 對此Isaacs認為,自動駕駛的功能需求不斷變化,而可編程的FPGA晶片有著更好的設計和升級彈性,靈活性優於ASIC,因此更能符合自動駕駛多樣的功能設計。 Isaacs進一步說明,FPGA是一個可編程的邏輯晶片,可以支援多種演算法,以讓晶片適用不同的自動駕駛功能(例如安全、感測等)。若是採用ASIC,如果要更改其中一項功能,或是指令要求的話,很可能無法輕易更動,而需要重開一顆ASIC。如此一來,不僅成本提高,也可能會增加風險,因為不確定後來新開的ASIC是否適用。由於自動駕駛的安全需求是不斷變化,而採用FPGA的話,便可以用同一個元件滿足各種功能調整、改進、增添的需求,而這是ASIC無法做到的。 Isaacs指出,許多人認為FPGA價格遠高於ASIC,因此較少採用,其實這是一種對FPGA的誤解。賽靈思目前已出貨1.7億顆的車用FPGA晶片,這證明FPGA的適用性、效能及優勢,且可編程的靈活特性又可以減少重開晶片的風險及成本;換言之,FPGA所能帶來的效益及優勢已遠遠超過其價格,擁有相當好的性價比。因此,該公司致力擴展車用產品系列,協助車商、系統業者實現數據整合處理,並透過更佳的靈活性和擴充能力,滿足瞬息萬變的自駕車市場。 推動新類型運算加速AI發展 最後,賽靈思則是積極推動自適應性運算,以因應變化多端的AI發展。賽靈思軟體與AI產品市場行銷副總裁Ramine Roane(圖4)指出,AI為現有的處理器帶來很大的挑戰,過往都是一年半到兩年的時間打造一個ASIC或GPU,然而,現在幾乎每三個就月會出現新的AI模型,使得既有的晶片設計時程很難趕上AI的創新速度。 圖4 賽靈思軟體與AI產品市場行銷副總裁Ramine Roane透露,自我調適的FPGA產品可滿足快速變遷創新應用。 Roane說明,為此,如今的發展重點在於,如何加快設計速度,以趕上創新速度。如上述提到,AI只需幾個月的時間(3~6個月)就會更新,出現新的運算模型,而晶片製造商不太可能隨著AI更新速度,每6~9個月就重新設計硬體,推出新的晶片。因此,需要能夠「自我調整」的平台,也就是設計要靈活多變,可以針對不同應用進行定製或優化,如此一來才能趕上創新的變化。 因此,賽靈思除了打造可自我調適的FPGA產品,以針對不同應用進行硬體優化外,也推出最新Vitis統一軟體平台,讓軟體工程師、人工智慧科學家等更廣泛的開發人員都能夠受益於賽靈思靈活應變硬體加速的優勢。 這是賽靈思首次推出一個軟體和硬體設計整合的開發工具平台,也是該公司從元件向平台公司戰略轉型的重要產品之一。Vitis可以根據軟體或演算法程式碼自行調適和使用賽靈思硬體架構,讓使用者從繁雜的硬體專業知識中解放,借助Vitis平台,無論是軟體工程師還是AI科學家都將受益於賽靈思靈活應變的硬體優勢。而對於硬體開發者來說,Vitis則能讓軟硬體工程師在同一個工具平台上協作,顯著提升工作效率。 值得一提的是,Vitis平台的第四層為Vitis AI,其整合了領域專用架構(DSA)。DSA配置賽靈思硬體,便於開發者使用TensorFlow和Caffe等領先業界的框架進行最佳化與編程。Vitis AI提供的工具鏈能在數分鐘內完成最佳化、壓縮及編譯操作,在賽靈思元件上高效地運行預先訓練好的AI模型;此外,它還為從邊緣到雲端的部署提供專用API,實現高效的推論效能與效率。 Vitis和Vitis AI目前已開放免費下載,讓軟體工程師與AI科學家在內的廣大領域開發者,都能運用自己熟悉的軟體工具與框架發揮賽靈思靈活應變的硬體優勢,將為從邊緣到雲端的人工智慧和深度學習提供最佳人工智慧推論。 賽靈思總裁暨執行長Victor...
0

美光RDIMM力助資料中心效能大躍進

美光科技(Micron)日前宣布其DDR5暫存器記憶體模組(RDIMM)已進入樣品測試階段,該產品採用1znm製程技術。美光DDR5將提升記憶體效能85%,並能因應次世代伺服器的工作負載量。當資料中心系統架構需要快速供應不斷擴充的處理器核心數及更高記憶體頻寬和容量時,DDR5不僅提供雙倍記憶體容量,也展現更高可靠度。 美光電腦運算與網路業務部門資深副總裁暨總經理Tom Eby表示,資料中心的工作負載量將會不斷面臨挑戰,因為幾乎所有應用程式的資料均急遽增長,而資料中心必須從中擷取數值。要滿足這些工作負載量的關鍵便是更高效能、容量與品質的記憶體。美光DDR5 RDIMM樣品測試讓業界能向解鎖次世代數據密集應用程式的價值邁進一步。 因快速擴展的資料集以及需要大量運算的應用程式而產生的進階工作負載量,導致處理器核心數的成長,而目前的DRAM技術將導致頻寬不足。有鑑於此,相較於DDR4,DDR5將提供超過1.85倍的效能成長,也將帶來更高的可靠度、可用性與可維護性(RAS),以因應當代資料中心需求。
0

購併Barefoot 英特爾攻雲端市場更有底氣

Intel對外聲明,強化數據中心互聯方案,提供客戶更充沛的資源,利用高速成長的龐大數據來提升競爭力,是其認定的六項重要技術基礎之一(Process and packaging, Architecture, Memory, Interconnect, Software and Security)。而Barefoot Networks在雲端網路架構、P4可編程軟體與編譯器、交換機晶片、驅動程式軟體,網路遙測等面向具備互聯技術的專業知識,因此促成本次的併購案。 全球雲端運算應用趨勢剖析 在Amazon、Google與Microsoft等雲端大廠帶頭下,全球資料中心市場持續成長,帶動x86架構伺服器的需求,也為當中具近壟斷地位、以Xeon處理器為主力產品的Intel挹注豐厚營收。Intel資料中心事業部營收在2018年以前呈現持續成長態勢,營業利潤表現與占公司總營收比重也同步爬升,其重要性已十分明顯。 網通大廠Cisco在2018年發表之Global Cloud Index報告中指出,在雲端應用的高速發展下,2021年全球雲端資料中心流量將達19.5Zettabytes的水準(2016年為6Zettabytes),並占據各型資料中心整體95%的流量。 在上述預測下,裝載上千台伺服器、占地達萬平方英尺的超大型雲端資料中心在2021年可達628座,較2016年的水準(338座)大幅增加。上述地點屆時將占有全球資料中心53%伺服器數量、65%資料儲存量,以及55%的數據流量。 另一方面,為支援低延遲與IoT應用(多人雲端遊戲、AR/VR、智慧製造與V2X等)、分散運算與儲存等需求,相對一般資料中心規模(設備數量、場域大小、用電等面向)較小的邊緣運算市場也受到矚目。 資料中心三項主要IT設備:伺服器(Server)、儲存裝置(Storage)、交換器(Switch),在各型資料中心持續擴展下,市場穩定成長,也吸引許多業者投入開發產品。其中,從網路通訊的觀點,包括資料中心聯外的骨幹網路、機架間的連結,以及上述三大設備的通訊介面,主要有乙太網路、光纖通道與InfiniBand三大類,分別常見於伺服器/交換器、儲存裝置、高性能的超級電腦領域。 高速運算急速成長成為併購幕後推手 隨雲端資料量大幅成長,使得高速傳輸具有迫切需求,上述3大陣營持續朝100G發展。其中,由電機電子工程師學會主導的Ethernet陣營,在Cisco、Juniper、Arista、HPE、DELL等交換器與伺服器大廠主導下已朝400G、800G方向邁進,同期間另外兩個陣營則發展至200G規格。Ethernet在大廠支持、高速傳輸標準發展領先下,持續擴展在伺服器/交換器與儲存裝置的市占;InfiniBand則守住在超級電腦領域的主要地位。 Intel對於發展自有高速傳輸介面一直十分積極,最主要的布局即為2012年併購InfiniBand業者QLogic,並於2015年正式量產的「Omni-Path」規格。然而,無論在交換器(未獲多數OEM業者主力產品採用)、儲存裝置(多家大廠支持另一個開放標準)與超級電腦領域(InfiniBand主導業者Mellanox技術與市占領先),Omni-Path未能取得預期成績。因此Intel併購Barefoot後,2019年7月也宣布不再繼續發展Omni-Path藍圖,集中資源投入Ethernet後續標準與產品發展。 2019年在伺服器之核心處理器市場,Intel目前仍維持9成以上市占率,主要對手為半導體大廠AMD,持續開發高性能效率、高兼容性的第二代EPYC處理器,爭取DELL、IBM與Nokia等大廠青睞。GPU大廠NVIDIA如前文所提,更提出高於Intel之收購價,與資料中心聯網晶片Tier1業者Mellanox完成整併協議。 NVIDIA執行長黃仁勳針對此項併購,明白說明背後動機。網路資料量高速增加下,促使資料中心內部伺服器間,東西向水平資料傳輸呈現指數型成長態勢。後續,資料中心將轉變成數萬運算節點的巨型運算引擎,對於特別是雲端大廠,在建置下一代資料中心時,將採用新架構。NVIDIA已看出可能的市場變化,在硬體加速與聯網加速進行雙邊布局,來滿足客戶的潛在需求。 Broadcom/Marvell進逼交換器市場競爭更猛烈 在交換器領域,Broadcom擁有完整交換器處理器、乙太網路與Fiber Channel方案;在伺服器、儲存裝置領域也有對應的搭配產品。有別於多數對手的策略,Broadcom近兩年的併購主題鎖定軟體,包括CA Technologies與Symantec兩家業者,深化企業、資料中心市場的產品組合,為客戶提供更具成本效益與彈性的授權合作模式,成為橫跨硬軟體整體解決方案大廠。 另一家交換器晶片大廠Marvell,從2018年起也進行多個併購案。首先是2018年收購伺服器處理器知名廠商Cavium,取得其以ARM處理器架構開發的ThunderX系列產品;2019年分別買下ASIC業者Avera與乙太網路IC設計業者Aquantia。Marvell原本在伺服器、交換器、儲存裝置都有對應產品,透過上述併購增加產品完整性與技術實力,展現深耕資料中心市場的決心。 在主要對手近兩年積極布局下,Intel透過補強通訊處理器提高資料中心方案完整度,鞏固伺服器晶片市場領導地位。 放眼未來 英特爾朝擴大生態系邁進 Intel收購Barefoot的新聞,從其本身競爭力提升的角度,獲得主流媒體、市場分析機構與產業的正面評價。首先,在既有的伺服器處理器市場上,RISC與Unix搭配的ARM陣營(如Cavium)、共同屬於x86架構下的對手AMD,以及IBM等大廠之自研平台,至少目前都未對Intel在數據中心的霸主地位帶來威脅。但在NVIDIA、AMD等對手加強資料中心產品布局下,Intel做出此項回應。 Barefoot的Tofino系列主要特色在於導入開源P4程式語言而具備可編程能力,藉以執行多元數據封包功能,例如防火牆或負載平衡、效能監控和遙測。上述的重要性在於雲端大廠甚至大型企業,其資料中心未來將可能需要更多客製化的軟硬體,Intel的網路工程師未來可與客戶合作(或客戶自行開發),從晶片端就能開發專屬功能,為伺服器等設備帶入更多AI與機器學習元素,提升資料中心的自動化與運作效率。 整體而言,Intel回應主要對手NVIDIA收購Mellanox、AMD積極推出新伺服器平台的動作,併購目前在資料中心互聯產品中,具備競爭力的新創業者Barefoot。這家公司在400G乙太網路技術位於領先群,可協助Intel掌握最新通訊規格動向與產品發展能力。而環顧Intel在資料中心的方案,在Xeon和Atom伺服器晶片外,並包括Altera(Arria和Stratix FPGA方案)、Nervana(Spring Crest神經網路處理器)、Barefoot(Tofino交換器ASIC),可提出更完整的產品包裝。 Intel在併購Barefoot之前,曾在2011年以未公開的價格,收購了專門為數據中心網路設備商設計乙太網交換器晶片的Fulcrum Microsystems,這家公司當時發展了10G/40G產品,並與交換器主要業者Arista展開合作。 回顧過去8年,Intel並未充分利用Fulcrum的技術,在交換器領域發展出獲得主流業者採用之乙太網路產品。 另一方面,Intel在2012年以1.25億美元代價收購QLogic的InfiniBand資產,後續推出自有的Omni-Path規格,經過3年推廣,決定在2019年停止後續投資。上述案例大致說明,Intel發動許多併購活動,包括在網路通訊領域布局,常見後來兩種發展變化,一為Intel藉機發展自有標準並對外推廣,一為該公司技術後續未充分發揮預期能量,消失在後續相關產品藍圖中。 然而,資料中心市場在雲端大廠主導,並採用開源標準、軟體定義網路(Software-Defined Networking, SDN)、網路功能虛擬(Network Functions Virtualization, NFV)等技術下,整個生態系更加開放。後續,資料中心無論朝向超大型架構或者微型化的邊緣運算架構,天秤兩端的品牌大廠與新創小廠都擁有成長機會,為雲端服務業者與企業客戶提供基於開放軟硬體平台下的客製化產品。 上述的產業樣貌與過去PC領域不同,Intel已掌握上述趨勢,併購Barefoot後藉由其乙太網路領先且創新的技術,不再創造自有標準而於相同基礎上提出更具競爭力的產品,帶領整個生態系做大市場規模。  
0

瑞薩電子攜手賽靈思開發ACAP設計

瑞薩電子(Renesas)日前宣布推出最新電源解決方案以及旗下子公司IDT的定時解決方案,可支援賽靈思(Xilinx)VCK190評估套件以及瑞薩VERSALDEMO1Z電源參考板上的Xilinx Versal自行調適運算加速平台(Adaptive Compute Acceleration Platform, ACAP)。建立在7nm製程技術上的Versal為ACAP平台,可滿足資料中心、汽車、5G無線、以及有線和國防市場的各種應用需求。 瑞薩電子系統與解決方案團隊總監DK Singh表示,很高興能夠繼續與 Xilinx 合作,提供可協助系統開發者快速啟動Versal ACAP設計的 時鐘及電源完整解決方案參考板。該公司的電源及定時解決方案,可一站式滿足Versal所有的設計需求,讓客戶能夠放心地設計新產品並獲得更多利潤。 Xilinx VCK190是首件Versal AI Core系列的評估套件,建立於VC1902 Versal AI Core系列ACAP平台,為雲端、網路和邊緣計算的應用提供產品組合中較佳的AI推算和訊號處理。套件具備了完整的時脈解決方案,包括適用於IEEE1588和eCPRI應用的8A34001 ClockMatrix系統同步器、用於低抖動和靈活收發器SerDes時鐘的8T49N240/41通用頻率轉發器(Universal Frequency Translators)、以及用於PCIe介面的可編程時脈產生器和時脈緩衝/多工器。IDT的時脈解決方案廣泛的產品組合,透過了超低相位雜訊滿足所有的Versal時鐘要求,確保可靠、高性能的產品設計。 賽靈思產品線行銷與管理高級總監Sumit Shah則表示,該公司的Versal ACAP客戶正在開發高度複雜、運算密集型的系統,這些系統需要靈活且高性能的電源供應和時脈功能。藉由與瑞薩合作開發具備預先驗證的參考設計,客戶可以快速的開發最佳的電源管理解決方案。
0

賽靈思三大策略擘畫5G/AI藍圖

賽靈思(Xilinx)舉辦的2019賽靈思開發者大會(Xilinx Developer Forum, XDF)亞洲站於北京盛大揭幕。賽靈思總裁暨執行長Victor Peng發表「賽靈思:創新的驅動力」為題的主題演說,分享公司啟動三大戰略一年多來取得的重大成就。賽靈思執行副總裁Salil Raje與Liam Madden也分別以軟體創新、5G部署等兩大領域,進一步展示公司三大戰略在讓所有開發者得以創新及加速全球5G部署的優異成果。來自阿里巴巴、百度、浪潮及中泰證券的嘉賓與Victor一起分享與賽靈思的密切合作,以及齊力推動全新自行調適運算的努力。 Salil為亞洲開發者正式發布Vitis統一軟體平台,並宣布針對人工智慧(AI)和機器學習推論的Vitis AI即日起開放免費下載。作為本年度XDF的最終站,XDF亞洲站共吸引近2,000名賽靈思客户、合作夥伴、開發者、媒體與員工参加,舉辦75場精彩的深度演講與實作培訓課程,邀請到來自微軟亞洲研究院(MSRA)、AMD、阿里巴巴、騰訊和北京清華大學等企業院校的產業領導菁英及專家學者與開發者深入交流,分享關於產業與技術的洞察。此外,XDF亞洲站還設立近100個展示攤位,展示優良的企業運用賽靈思技術在人工智慧、資料中心、5G、工業、汽車等各個領域的創新成果,如採用賽靈思Alveo加速器卡的AMD第二代7奈米EPYC(霄龍)處理器。賽靈思全球執行副總裁Salil Raje和Liam Madden也分別分享賽靈思在驅動自行調適技術普及與助力全球5G部署方面的傲人成就。同時,賽靈思亦宣布其人工智慧AI推論開發平台Vitis AI即日起開放免費下載。Vitis AI將成為軟體程式碼的一部分,支持人工智慧科學家和其他軟體開發人員大幅提升深度學習加速的能力。 XDF自2017年首次舉辦,至今已成為產業具影響力的開發者大會之一。今年在北京舉行的是XDF亞洲站,前兩站已於10月1日至2日在美國加州聖荷西、11月12日至13日在荷蘭海牙圓滿落幕,共吸引近2,500名與會者。同時,來自眾多產業的知名企業在XDF矽谷站與歐洲站紛紛亮相,包括亞馬遜、微軟、IBM、三星、美光、小馬智行(Pony.AI),安富利與是德科技(Keysight)等。 2018年初,賽靈思宣布啟動三大策略:資料中心優先、加速核心市場發展及驅動靈活應變的運算。經過逾一年半的發展,賽靈思憑藉高效能與靈活應變能力不斷拓展市場,在資料中心、人工智慧、5G等產業重要趨勢的應用領域,日益扮演重要的角色。 針對資料中心領域,賽靈思在去年的XDF上推出快速的Alveo資料中心加速器卡系列,在一年多的時間裡,為滿足用戶對運算、尺寸、記憶體頻寬及成本的不同需求,陸續推出U50、U200、U250和U280四大系列產品,用於大幅提升雲端和在地資料中心伺服器的效能。借助Alveo加速器卡,客户在執行即時機器學習推論與影像處理、基因組分析、數據分析等關鍵的資料中心應用時,能夠以更低的延遲實現突破性的效能提升。此外,最值得一提的是賽靈思已經針對Alveo產品,在短短一年多為企業與學術單位培訓超過7,500人、加速器專案達800多個,並發布近100個相關應用。 本屆XDF亞洲站,賽靈思針對亞洲市場正式介紹最新Vitis統一軟體平台,該平台將使軟體工程師、人工智慧科學家等更廣泛的開發人員都能夠受益於賽靈思硬體加速的優勢。這是賽靈思首次推出一個軟體和硬體設計整合的開發工具平台,也是公司從元件向平台公司戰略轉型的重要產品之一。Vitis可以根據軟體或演算法程式碼自行調適和使用賽靈思硬體架構,讓使用者從繁雜的硬體專業知識中解放。借助Vitis平台,無論是軟體工程師還是AI科學家都將受益於賽靈思的硬體優勢。而對於硬體開發者來說,Vitis則能讓軟硬體工程師在同一個工具平台上協作,顯著提升工作效率。 隨著5G業務迅速成形,其所覆蓋的廣度與深度正達到良好的水準。2019年4月,賽靈思與三星聯手在韓國完成全球首例5G NR商用部署。賽靈思UltraScale+平台功耗小、記憶體容量大且功耗低,助力三星開發出輕量、外形精實、低功耗的頂尖5G產品,成為輕鬆部署5G的理想選擇。除了個人用戶端的應用,工業網際網路、自動駕駛等也是5G業務的重要應用領域,並且對5G業務提出了低延遲的要求,即資料傳輸要在幾毫秒之內完成。對此,賽靈思提供5G通訊平台,採用的高度整合晶片具有RF ADC和DA、加速5G NR功能以及可以滿足mMIMO無線電、大型基站(Macro Base Station)和蜂巢式網路部署所需的高效率效能。 在XDF亞洲站的主題演講中,浪潮、阿里巴巴、百度、中泰證券的參與,以及分會場眾多企業的分享,展示各領域的企業運用賽靈思自行調適運算平台各種富有創意且精采呈現的產品、方案和終端應用,不僅顯示賽靈思攜手知名企業到新創公司所創造的各種創新成就,也展示賽靈思深耕亞洲及中國市場,攜手合作夥伴共創雙贏的信心和努力。 XDF作為賽靈思一年一度的開發者技術盛會,亞洲站每年都是規模最大的一站,充分展現賽靈思在亞太區獲得眾多產業生態系合作夥伴的重視和支持。2019XDF為廣大開發者提供75場產業觀點、頂尖技術和前瞻應用相關的技術論壇,以及為期兩天、總計超過50小時的實作開發者實驗室,從硬體工程師到研究人員、資料科學家、機器學習與AI工程師,再到IP提供商、軟體應用開發者、系統設計人員、加速軟體發展者及嵌入式軟體發展,都將從中受益。 隨著賽靈思業務在亞洲、尤其是中國市場不斷擴大,XDF亞洲站的規模與規格也逐年提升。與會者從2017年500多名、2018年1,200多名,到2019年成長至近2,000名,XDF正吸引越來越多的開發者參與,為其激發靈感、賦予創新能力,助其快速實現創意並率先推向市場。同時,伴隨人工智慧迅速落地、資料中心加速發展、5G部署全面展開,賽靈思正在中國各個產業全面扮演重要角色,釋放創新活力,從而在未來自行調適運算的時代持續發展。
0

Xilinx資料中心策略進展飛速 強大產業生態促進轉型

2019年賽靈思(Xilinx)開發者大會(Xilinx Developer Forum, XDF)亞洲站日前於北京盛大開幕。賽靈思資料中心事業部舉辦媒體說明會,為賽靈思資料中心事業部(Data Center Group, DCG)成立以來首次以一個全新事業部的形式於媒體活動中公開亮相。 賽靈思資料中心產品部執行副總裁暨總經理Salil Raje表示,賽靈思的高效能運算、儲存和網路加速自行調適運算加速平台,正在加速驅動這場轉型。打造的Alveo加速器卡平台和首款7奈米Versal自行調適運算加速平台,加上不斷壯大的合作夥伴生態系,將為資料中心企業升級轉型和持續發展提供強大動能。 Salil Raje展示賽靈思與資料中心獨立軟體供應商(Independent Software Vendor, ISV)合作夥伴在資料庫與資料分析、機器學習、高效能運算、影像與圖像、金融科技以及網路加速等領域採用Alveo加速器卡的各種創新成果,體現賽靈思為解決資料中心關鍵工作負載而打造的資料中心產業生態系。同時,Salil還發布賽靈思自2018年啟動全新策略以來創下的各個重要里程碑,在資料中心優先策略執行下取得的重大進展,與賽靈思以自行調適運算持續引領未來資料中心產業轉型的發展歷程。 人工智慧(AI)的發展、日益複雜的工作負載與非結構化資料的爆炸式成長,正迫使資料中心快速轉型。隨著5G、人工智慧(AI)、雲端運算、物聯網及自動駕駛等新一代資訊技術快速演進,全球資料正呈現指數級增長並呈現大量聚焦的態勢。根據IDC預測,從2018年至2025年,全球每年被創造、蒐集或複製的資料將成長五倍以上,預計將從2018年的32ZB增至2025年的175ZB,而中國將於2025年以48.6ZB的資料量及27.8%的占比,成為全球最大的資料匯集地。無論是公有雲,私有雲還是混合雲,面對無止境的資料增長,都希望能夠大幅提升資料中心的使用率、效能與能源效率,並且降低營運成本和總成本,現代資料中心的升級轉型勢在必行。 2018年初,賽靈思宣布啟動三大公司策略:資料中心優先、加速核心市場發展及驅動自行調適運算,其目的就是要讓所有的開發者都能受益於賽靈思自行調適平台並加速創新。在資料中心優先策略的發展之下,讓更多各式各樣的軟體和系統開發者加入自行調適運算的世界,成為推動公司加速由元件向平台轉型的策略。 2018年的XDF上,賽靈思推出功能優良的Alveo加速器卡產品系列,落實資料中心優先的策略。Alveo旨在提升雲端和在地資料中心標準伺服器效能,推動自行調適的普及應用。該產品系列目前已擴展至Alveo U50、U200、U250、U280四款產品,並已在美國、歐洲和中國市場得到廣泛應用。2019年4月,賽靈思宣布收購Solarflare,將FPGA、MPSoC和ACAP解決方案與Solarflare的低延遲網路介面卡(NIC)技術以及Onload應用加速軟體整合,進而實現新融合SmartNIC解決方案。 根據賽靈思總裁暨執行長Victor Peng在主題演說中表示,賽靈思已經開始與眾多知名伺服器OEM供應商如Dell、HP、浪潮等攜手Alveo加速,培訓企業及學術界使用者達超過7,500人,加入賽靈思加速器計畫的合作夥伴已達800多家,並發布近100個相關應用。 在推出Alveo加速器卡之後,賽靈思與OEM廠商、加值經銷商(VAR)及經銷商形成Alveo的龐大伺服器加速技術生態體系,涵蓋金融、生命科學、機器學習、分析以及影像等關鍵工作負載,共同打造更為簡便易用且功能強大的伺服器加速產業。2019 XDF亞洲站專門為ISV打造一個Alveo專區,共有來自全球各地的近20家ISV的解決方案展示,其中一半來自中國。 此外,眾多加值經銷商和經銷商等的加入,不僅豐富賽靈思資料中心生態系,也展現企業對賽靈思資料中心策略的信心。
0
- Advertisement -
- Advertisement -

最新文章

- Advertisement -

熱門文章

- Advertisement -

編輯推薦

- Advertisement -