GPU
ADI降壓型穩壓器縮減高功率密度應用布局面積
Analog Devices(ADI)宣布推出Power by Linear LTC3310S,其為一款5V、10A低EMI單晶式同步降壓型轉換器。該元件的固定頻率峰值電流模式架構非常適合要求快速瞬變響應的高降壓比應用。LTC3310S整合熱點迴圈旁路電容的Silent Switcher2架構,得以實現高效率、小布局面積解決方案(在高達5MHz頻率時)及卓越的EMI性能。多相操作可實現多個元件的直接並聯,以提供較高的輸出電流。
LTC3310S的2.25V至5.5V輸入範圍可支援包括大多數中間匯流排電壓等多種應用。內建低阻抗的MOSFET可提供高達10A的連續負載電流,熱效影響極少。0.5V至VIN的輸出電壓範圍非常適合負載點應用,如高電流/低電壓DSP/FPGA/GPU/ASIC參考設計。其他主要應用包括光網路、電信/資料通訊和汽車系統、分散式電源架構和一般中高功率密度系統。
LTC3310S的35ns低最短導通時間可在高頻下實現高降壓比電源。100%工作週期操作提供低電壓差性能,操作頻率可同步至外部時脈。在–40°C至125°C的接面溫度操作範圍內,LTC3310S擁有±1%總體參考電壓精度。其他特點包括指示輸出處於穩壓狀態的電源良好訊號、精準致能門檻、輸出過壓保護、熱保護關機、晶片溫度監視器、時脈同步、模式選擇和輸出短路保護。
ADI高功率µModule穩壓器降低資料中心冷卻需求
Analog Devices(ADI)日前發表LTM470 降壓型DC-DC電源穩壓器,進一步擴充其Power by Linear µModule穩壓器系列。該元件兼具同類產品最高功率和用以降低資料中心基礎設施冷卻需求的高能效。新型電源µModule可提供雙路50A或單路100A配置,創新封裝技術使其在伺服器密度增加及資料中心輸送量和運算能力提升時所對系統尺寸和冷卻成本的影響微乎其微。
LTM4700 µModule的高整合性,及內建元件級封裝(Component-on-Package)設計納入了晶片上記憶體、資料轉換電路和數位介面,尺寸僅約競爭元件的一半。元件應用包括雲端運算、高速運算和光纖網路系統、通訊基礎設施、PCIe板,以及醫療、工業和測試與量測設備。
高效冷卻是影響全球資料中心的一個關鍵問題。更高輸送量、雲端運算服務等不斷成長的需求為目前的資料中心基礎設施造成了壓力,而衍生出對於新散熱方法的需求。LTM4700解決了這個問題,使資料中心營運業者能提高伺服器的密度和性能。
透過創新散熱封裝技術,LTM4700的操作溫度為73°C,而競爭對手提供的模組化解決方案之操作溫度則通常為90°C。在高達70°C的環境溫度和具有200 LFM氣流的情況下,LTM4700可在12VIN至0.8VOUT的轉換中提供100A的全負載電流。在12VIN至0.8VOUT轉換操作時峰值轉換效率為90%。而µModule架構使系統設計人員能組合最多8個元件,提供高達800A的負載電流以因應資料中心處理器的較高功率需求,包括FPGA、ASIC、GPU和微控制器。
ACAP平台彈性/智慧高 Xilinx轉型全面擁抱AI
2012年的ImageNet機器學習影像辨識學術競賽,被喻為是正式掀起這一波人工智慧(Artificial Intelligence, AI)浪潮的關鍵活動之一,GPU平行運算架構在圖形辨識上的高效能,讓深度學習網路可以大幅增加層數,以提升影像辨識準確率;也旋即於2015年以3.57%的錯誤率超越人眼,揭開AI產業化與產業AI化的大門,運算平台除了近期超熱門的GPU之外,CPU、FPGA與新興的神經網路處理器(NPU),更亟欲搶占AI深度學習網路運算與推論市場大餅。
人工智慧發展全面展開,可編程邏輯廠商美商賽靈思(Xilinx)認為,未來已經沒有一個架構可以滿足所有的應用需求,因此該公司正式踏上轉型之路,2018年3月啟動策略轉型工作,宣示從元件廠商轉型為平台廠商,提出自行調適運算加速平台(Adaptive Compute Acceleration Platform, ACAP),並舉辦賽靈思開發者大會(XDF),發表未來幾年的技術與產品重點,全面擁抱人工智慧的發展趨勢,以資料中心(Data Center)為發展策略的起點,目標為打造靈活應變、萬物智慧的世界。
自行調適/運算加速/平台化策略
多年來以可編程邏輯元件技術立足產業的Xilinx,為了在AI的創新浪潮中注入下一波成長動能,啟動成立以來最大規模的轉型工程,Xilinx總裁暨執行長Victor Peng(圖1)表示,在AI無所不在的時代,相關應用日新月異,晶片設計週期已經落後創新的速度,FPGA彈性的特點則可以應用在AI的創新上。目前一般新晶片設計週期高達24個月,透過ACAP平台的協助,可將AI模型加以拆解,變成數個不同的發展(Develop)、優化(Optimize)、部署(Deploy)流程,該平台動態範圍廣泛彈性,可針對不同的應用調整需要的加速範圍。
圖1 Xilinx總裁暨執行長Victor Peng表示,該公司自行調適運算加速平台ACAP目標為打造靈活應變、萬物智慧的世界。
因此Xilinx未來不再是元件供應商,而是平台化解決方案開發與供應商。而資料爆炸、AI興起、摩爾定律放緩,顛覆了原有的市場和業務,Peng認為,平台策略在這樣的大環境下中也就顯得更加重要,系統和基礎設施在全球迅速擴張,對於運算能力和頻寬也有了前所未有的要求。同時,也要更加迅速地滿足不斷變化的要求和標準。就像自然界「物競天擇,適者生存」的自然法則一樣,在數位世界,靈活應變的系統也是最具彈性和可持續性的。
Xilinx於10月推出第一款ACAP平台產品Versal,Peng指出,Versal字面上是由Variety與Universal組合而成,希望在技術與應用上可以兼顧多樣性與通用性。Peng強調,ACAP平台是整體軟體的堆疊,不僅僅是晶片,還包括高整合度工具、最佳化函式庫、作業系統等,還有AI框架標準,只須利用符合業界標準設計的流程就能針對其硬體與軟體進行編程與最佳化,針對整體應用的加速,而不僅止於深度學習網路。
Versal架構專為AI應用開發
Versal的架構將發展兩個系列、六個應用區隔,兩個系列以有無AI核心為主要差異,未搭載AI引擎的系列,運算能力由低至高為Prime、Premium以及HBM三個產品線;而搭載AI引擎的系列,主要以應用區隔為AI核心、AI邊緣以及AI RF系列。未搭載AI引擎系列,針對市場上廣泛適用性進行設計,並就作業負載的連結與線上加速進行最佳化。搭載AI核心的系列,針對雲端、網路以及自駕車應用進行最佳化,該系列配有5個元件,並提供128至400個AI引擎。
在架構上,Xilinx FPGA與SoC產品管理暨行銷資深總監Kirk Saban(圖2)解釋,Versal架構中有幾個主要的核心,包括:純量處理引擎(Scalar Processing Engine),搭載Arm Cortex-A72與Arm Cortex R5應用處理器,還有可完全軟體編程的平台管理控制器;自行調適硬體引擎(Adaptable Hardware Engine),可動態重新配置,即時加速能力最高達八倍;DSP引擎可提供高準確性浮點運算與低延遲,針對客製化資料路徑的細微性控制;AI引擎具有高傳輸率、低延遲與高效率,可協助AI推論與高階訊號處理,搭配先進記憶體和介面技術,可提供強大的異質加速能力。
圖2 Xilinx FPGA與SoC產品管理暨行銷資深總監Kirk Saban解釋,自行調適硬體引擎,可動態重新配置,即時加速能力最高達八倍。
而在軟體支援與開發環境部分,Xilinx軟體業務執行副總裁Salil Raje說,AI人工智慧有兩個階段,訓練和推論。在訓練階段,資料科學家將海量的資料放到模型中,然後微調模型、改善模型以減少誤差,之後將訓練模型部署到應用當中。在推論過程當中,資料量相對較少,在推論階段,回應速度與功耗就顯得更加重要,如果部署在搭載電池的邊緣設備當中,要盡量降低功耗。未來幾年,推論需求的成長性將明顯高於訓練(圖3)。
圖3 AI推論需求將持續攀升
資料來源:Barclays Research(05/2018)
AI創新與應用日新月異
而推論帶來的挑戰包括:AI創新的速度,低延遲、高通量和高效能與整體的應用加速。Raje指出,幾年前AI關注圖像的分類以及推薦的引擎,但是AI應用和AI模型的使用數量成長的速度非常快,包括目標識別、分割、語音辨識、異常檢測等,在每個應用當中都有很多的創新發生在AI的模式上。2012年的AlexNet促成AI模型的大爆炸,在過去六年,絕大多數的創新都是為了改善精確度。最近則是想提高AI模型的效率,以應用於行動裝置和IoT終端。
現在AI的應用、AI模型和精度方面有很多的創新,Raje舉例,有一個最先進的深度學習網路,等專為其設計的晶片生產時,技術已經產生了變化,此固定功能晶片,只為了支援一個舊的網路架構。所以固定晶片架構不是好選項,要靈活應變的硬體如賽靈思FPGA和ACAP元件,使得使用者能夠客製資料流程以針對最先進的網路,同時可彈性調整,而不需更換晶片。靈活應變的硬體也能夠客製記憶體的層次結構,可以用更多的On...
Xilinx/華為攜手發布FPGA雲端視訊串流解決方案
賽靈思(Xilinx)、華為(Huawei)和NGCodec近日宣布開發出中國第一款雲端高效率視訊編碼(HVEC)解決方案,其獨家採用賽靈思Virtex UltraScale+ FPGA和NGCodec H.265視訊編碼器。該技術將進駐華為雲FPGA加速雲端伺服器(HUAWEI CLOUD FACS),並在2018年底前開始上線,率先在中國的可擴展雲端基礎架構中,落實廣電級品質的即時串流解決方案。
賽靈思雲端視訊部門資深行銷經理Sean Gardner表示,賽靈思FPGA技術與NGCodec HEVC編碼器的獨特組合,能落實一系列以往無法達成的解決方案。華為透過率先在自己的雲端基礎設施上運行FPGA,來提供高解析度且即時的視訊串流,並將其導入中國即時視訊串流市場,進而引領產業發展。
視訊串流是中國一項重要的作業負載,企業紛紛盡力推出基礎設施,以滿足視訊串流快速增長衍生的強勁需求。在過去,企業採用GPU來運行HVEC解碼器,但若使用賽靈思FPGA來運行,能提供相同的視覺品質、並將位元速率降低 35~45%,進而大幅節省頻寬及儲存成本。
華為雲HEVC解決方案能以每秒60幀的速度提供1080p的畫質,且未來能達到每秒120幀的速率,除此之外,它能迅速整合至現有的視訊工作流程(Workflow),為核心視訊功能加速。
加快邊緣運算步伐 Intel推全新視覺加速器方案
英特爾(Intel)積極拓展邊緣運算版圖,於近日發布全新視覺加速器設計產品(Intel Vision Accelerator Design Products),強化邊緣裝置人工智慧(AI)推論與分析能力。此一解決方案包含Intel Movidius視覺處理器與Intel Arria 10 FPGA,皆以OpenVINO軟體工具套件為基礎,提供開發者在多種Intel產品中使用進階的神經網路效能,在物聯網裝置中運行更具成本效益的即時影像分析和智慧化功能。
為了降低雲端運算工作負載,實現更多創新應用,邊緣運算需求與日俱增,應用開發商與半導體業者皆積極將深度學習或機器學習導入前端設備,希望使前端裝置也有人工智慧的能力,而這過程中也有許多挑戰須克服。
英特爾資深副總裁暨物聯網事業群總經理Tom Lantzsch表示,以往企業在導入深度學習技術上遇到許多困難,不論交通運輸、智慧城市、健康照護、零售與製造業,都需要專業知識、種類廣泛的多樣化裝置與具擴充性的解決方案,以進一步發展深度學習。而新推出的視覺加速器設計產品可提供更多選擇與彈性,加速AI邊緣運算發展,以產出更多即時性資訊。
據悉,新發布的視覺加速器設計產品運作方式,是將AI推論的工作負載轉移至Movidius視覺處理晶片陣列,或高效能Intel Arria 10 FPGA的專屬加速卡上;且開發者可透過OpenVINO工具套件,將Intel CPU與Intel內建GPU上的深度學習推論應用與設計成果,輕易延伸至這些全新的加速器設計之中,藉此節省時間與費用。
英特爾指出,用此一視覺解決方案的企業,不論是在資料中心、現場部署伺服器或於邊緣裝置內採用深度學習人工智慧應用,深度學習推論加速器皆可擴充至其需求程度。
此外,英特爾也透露,相較於Discrete GPU,新推出的視覺加速器產品優勢在於封裝小,可用於體積小的邊緣設備,且功耗更低(約10~20瓦);同時為了因應市場多元的應用,不僅是新發布的Movidius視覺處理器和Arria 10 FPGA以OpenVINO為基礎外,其餘產品線如XEON、CORE i7和ATON等,也都支援OpenVINO,讓開發者依據自身需求選擇合適的晶片,打造具深度學習功能的邊緣裝置。
Xilinx AI轉型拉攏資料中心 劍指Intel、NVIDIA
自行調適與智慧運算廠商賽靈思(Xilinx),多年來以可編程邏輯元件技術立足產業,為了在人工智慧(AI)的創新浪潮中注入下一波成長動能,啟動成立以來最大規模的轉型工程,並在日前的北京賽靈思開發者大會(XDF)中,積極與大陸雲端服務業者華為、阿里巴巴、浪潮等公司合作,搶占AI運算/推論市場,與布局較早的GPU、CPU競逐雲端AI應用大餅。
FPGA最大的特點就是靈活的可程式化與高運算能力,過去常被用在需要高運算效能或創新應用尚未發展出適合的ASIC時,面對AI浪潮席捲,AI無所不在的時代即將來臨,為搶占廣大的深度學習網路運算市場,各類運算平台積極布局AI運算,包括Intel為首的CPU、NVIDIA為主的GPU,FPGA龍頭Xilinx也投入,雲端AI運算市場競爭激烈,各家廠商積極合縱連橫布局產業生態系(ecosystem)。
以投入較早的NVIDIA為例,目前在AI競爭當中取得暫時的領先,該公司目前已經發展一系列的硬體晶片與板卡,搭配完善的開發環境、AI深度學習框架、軟體函式庫等,產業鏈初具型態;而昔日資訊運算霸主Intel,近年則是透過許多投資與併購,希望能扭轉CPU不適合深度學習運算的劣勢。相較之下起步較晚的Xilinx今年大動作投入,走向平台化並創建自行調適運算加速平台(Adaptive Compute Acceleration Platform, ACAP),Xilinx總裁暨執行長Victor Peng表示,首款產品Versal就採用最先進的台積電7奈米FinFET製程。
在北京XDF Peng強調,ACAP可以透過彈性化的調整,協助整體應用的加速,縮短執行時間,而不是只最佳化機器學習流程。Versal將發展成一系列的產品解決方案,包括應用廣泛的Prime、強化推論功能的AI Core、低功耗的AI Edge、高速傳輸的Premium、整合RF功能的AI RF、整合記憶體堆疊,應用在高階資料中心的HBM。
而在這個階段,Xilinx也以資料中心為其發展的優先戰略,XDF中並與中國大型雲端服務業者華為、阿里巴巴、浪潮結盟。華為智能計算業務副總裁張小華說明,採用華為雲技術,華為硬體以及Xilinx FPGA,建構一套統一的線上線下協同平台,採用相同的生態系統、環境資料、共同的安全協議以及管理協議。
阿里巴巴FPGA異構計算研發總監張振祥則說,阿里雲FPGA已經發展到第三代產品與架構服務,隨著未來新架構上市,當能提供更迅速更確實並安全的運算服務。浪潮集團副總裁李金指出,該公司致力於打造AI全面性的產品布局,從運算平台高效的管理系統套件到深度學習框架的最佳化、終端解決方案四個層次為客戶提供迅速、高效、最佳化的AI運算基礎設施。
AI帶動數據分析需求 Intel推FPGA加速卡迎戰
由於人工智慧(AI)、物聯網(IoT)等等技術的出現,全球的數據資料量正在快速增加。可程式化邏輯閘陣列(FPGA)具備低功耗、低延遲等特性,適合導入於邊緣運算應用之中。在未來,CPU、FPGA、ASIC等各種處理架構更將隨著不同應用出現而有更多整合的需求。針對以上趨勢英特爾(Intel)已推出對應解決方案,以迎接挑戰。
英特爾可程式化解決方案事業群亞太區總經理暨業務總監Ro Chawla指出,目前全球所累積的數據資料中,90%是在過去兩年內創造出來,可以想見全球數據資料量的成長速度相當驚人,該趨勢也為數據處理帶來挑戰。而FPGA的出現正是為了要解決巨量數據資料處理目前所面臨的瓶頸。
Chawla進一步指出,展望未來FPGA市場發展,整體FPGA市場預計將在2020年達到75億美元,加速器市場更有望在2021年達到200億美元。加速器市場不僅是包含FPGA,也包含了GPU與ASIC處理架構。
由於資料量的爆炸性成長,資料中心營運商需要保持大規模效能需求和營運效率之間的平衡。如富士通、戴爾 EMC等OEM廠商,亦在其伺服器系列中採用了英特爾可程式加速卡 (Programmable Acceleration Cards, PAC)。這是可程式化晶片的重要發展,旨在加速今日新型態資料中心的主流應用,憑藉出色的多功能性和速度,可支援處理從資料分析到金融服務的各項工作負載。
英特爾可程式化解決方案事業部業務經理林士元指出,目前FPGA的應用領域以數據中心為大宗,也由於大數據的重要性持續存在,因此數據中心也一直都是FPGA的重要應用領域。
除了數據中心應用之外,由於FPGA具備低功耗、低延遲等優點,也能符合邊緣運算的處理需求。以影像辨識為例,GPU雖在影像處理、訓練模形方面有極佳的表現,然而GPU的功耗較高,約可達到150W以上;相比之下,FPGA 50~60W的低功耗更適合做為邊緣運算使用。
Chawla提及,沒有任何一種處理器架構可以獨立解決所有的應用問題,因此技術趨勢將轉向異構計算架構。英特爾所推出的Open VINO架構能做到異構運算,適用於各種處理架構,未來也將會看到更多異構應用可能出現。
林士元更指出,目前英特爾已開始關注投資安防監控市場,該市場未來更有望成為FPGA成長最快的應用領域。也已經有廠商與Intel合作,開始將FPGA與加速器架構導入至人臉辨識、車牌辨識的邊緣運算應用之中。