雲端運算
英飛凌將亮相2020 CES展示創新科技
英飛凌(Infineon)將亮相2020年CES(國際消費電子展),展示如何應用半導體技術,實線產品創新,連接現實與數位世界。要實現現實與數位世界安全且可靠的互聯,有賴於先進感測器技術、可靠的運算能力、硬體式安全性,以及高效率的功率半導體產品。展會上,英飛凌將展示助力消費及汽車產業實現實現物聯網及大數據變革的關鍵半導體產品和技術。
智慧且高效率的汽車是未來智慧城市的一部分。憑藉數十年的經驗及完善的產業生態,英飛凌正積極協助打造 21 世紀的個人交通基礎設施。相關元件與系統展示包括小型、高效能雷達模組及光達元件,可支援先進駕駛輔助系統,同時提高自動駕駛等級;可無縫整合來自所有感測器系統資料的感測器融合技術;車載閘道及車聯網(V2X)通訊技術與安全技術則可確保軟體有效性,同時防範各種嘗試攻擊。此外,英飛凌將展示用於汽車動力傳動系統電氣化的電源轉換模組及電池管理系統;座艙內的創新則包括智慧無線充電以及用以監測駕駛警覺度與乘客狀況的感測器系統;智慧照明解決方案可提升駕駛者的視線能見度,也讓其他用路人更容易看見車輛。
感測器技術可擷取外在世界的資訊,並提供新類型的人機互動介面。 透過基於雷達、紅外線成像、MEMS麥克風及壓力感測器的創新技術,英飛凌及其合作夥伴將打造智慧環境,從個人健康監測裝置到智慧家庭、智慧樓宇、工廠及城市等。
無論是保護個人身分與金融交易,或是確保電池驅動產品的安全性,安全驗證對於確保消費者信心而言都極為重要。英飛凌的安全晶片可在各種應用中建立可信賴的環境,應用範圍涵蓋各種工具、智慧型手機、醫療診斷設備,以及區塊鏈系統、雲端運算伺服器等。
隨著技術轉移至5G無線通訊,小型高效率電源供應器能夠讓資料隨時隨地地傳輸,在物與人之間提供快速且經濟實用的連線。從電信伺服器、無線充電器到大規模資料儲存系統,英飛凌晶片技術是在大數據時代確保數據能夠常時在線 (Always-On)的關鍵。
實現創新應用 英特爾積極優化資料中心工作負載
物聯網、機器學習、人工智慧等新應用的興起,驅動了許多運算與資料處理需求,為資料中心產業鏈帶來龐大新商機;資料中心對於靈活、高效運算方案需求日益增加。也因此,如何優化工作負載,遂成為資料中心解決方案供應商主要任務。
英特爾(Intel)資料中心事業群副總裁暨行銷總經理Lisa Spelman表示,目前有著三大技術趨勢不斷推動資料中心的發展,分別為雲端運算、5G/Edge擴展,以及人工智慧(AI)。首先是雲端運算,雖說此一技術是三種裡面最為成熟的,但由於新興應用愈來愈多,驅使雲架構的規模和效率須不停提升,並從本地擴展到邊緣。
英特爾資料中心事業群副總裁暨行銷總經理Lisa Spelman。
而在5G/Edge部分,5G的革命性在於可謂每個使用這、行業帶來新的體驗,企業能透過5G創造新的商機。而與5G相結合,愈來愈多的運算、數據產生和服務應用的位置出現的轉移,也就是從雲端轉向邊緣,且發展力道十分強勁。最後,人工智慧則是在以數據為中心的應用中迅速傳播,並將塑造整個產業、人類生活的未來。AI的顛覆性創新已從數據中心轉移至邊緣,可說已遍及各式雲端、邊緣架構,衍生各式創新應用,預計在未來的兩年中,將會有近75%的應用程序整合AI。
簡而言之,這三大趨勢的出現,驅使資料中心的工作負載出現了全新的變化,有了新的應用意味著數據的產生、收集、運算需求也愈來愈高;也因此,優化工作負載成了關鍵任務,如此一來才能實現更高的性能、新功能和更高的服務品質。
Spelman指出,為此,多年來英特爾的硬體一直在追求更高效的分析和機器學習演算法。借助第一代Xeon可擴展處理器,可透其整合的Intel AVX 512引擎賦予CPU更大的AI實力,進一步為深度學習訓練和推論工作帶來顯著的性能提升。至於新發布的第二代Xeon可擴展處理器,內建可使推論加速的DL Boost技術,以進一步促進深度學習效率。
據悉,英特爾新推出的Xeon可擴展處理器代號為「Cooper Lake」,將在每個插槽支援高達56個處理器核心,並在標準插槽式處理器內建AI訓練加速器,該處理器預計在2020上半年問市。Cooper Lake高核心數處理器將會沿用原先內建於Intel Xeon Platinum 9200處理器系列的功能,帶來突破性的平台效能,這些功能已經被許多要求嚴格的高效能運算系統(High Performance Computing, HPC)客戶,包括HLRN、Advania以及4Paradigm等所採用。
值得一提的是,新款Intel Xeon可擴充處理器,與標準的Intel Xeon Platinum 8200處理器相比,提供兩倍的處理器核心數(最高56核心)、更高的記憶體頻寬、以及更高的人工智慧推論(Inference)與訓練效能。透過在Intel Deep Learning Boost(Intel DL Boost)中最新加入支援的bfloat16技術,Cooper Lake將提供內建高效能人工智慧訓練加速功能的x86處理器,該產品亦與即將推出的10奈米Ice...
Xilinx資料中心策略進展飛速 強大產業生態促進轉型
2019年賽靈思(Xilinx)開發者大會(Xilinx Developer Forum, XDF)亞洲站日前於北京盛大開幕。賽靈思資料中心事業部舉辦媒體說明會,為賽靈思資料中心事業部(Data Center Group, DCG)成立以來首次以一個全新事業部的形式於媒體活動中公開亮相。
賽靈思資料中心產品部執行副總裁暨總經理Salil Raje表示,賽靈思的高效能運算、儲存和網路加速自行調適運算加速平台,正在加速驅動這場轉型。打造的Alveo加速器卡平台和首款7奈米Versal自行調適運算加速平台,加上不斷壯大的合作夥伴生態系,將為資料中心企業升級轉型和持續發展提供強大動能。
Salil Raje展示賽靈思與資料中心獨立軟體供應商(Independent Software Vendor, ISV)合作夥伴在資料庫與資料分析、機器學習、高效能運算、影像與圖像、金融科技以及網路加速等領域採用Alveo加速器卡的各種創新成果,體現賽靈思為解決資料中心關鍵工作負載而打造的資料中心產業生態系。同時,Salil還發布賽靈思自2018年啟動全新策略以來創下的各個重要里程碑,在資料中心優先策略執行下取得的重大進展,與賽靈思以自行調適運算持續引領未來資料中心產業轉型的發展歷程。
人工智慧(AI)的發展、日益複雜的工作負載與非結構化資料的爆炸式成長,正迫使資料中心快速轉型。隨著5G、人工智慧(AI)、雲端運算、物聯網及自動駕駛等新一代資訊技術快速演進,全球資料正呈現指數級增長並呈現大量聚焦的態勢。根據IDC預測,從2018年至2025年,全球每年被創造、蒐集或複製的資料將成長五倍以上,預計將從2018年的32ZB增至2025年的175ZB,而中國將於2025年以48.6ZB的資料量及27.8%的占比,成為全球最大的資料匯集地。無論是公有雲,私有雲還是混合雲,面對無止境的資料增長,都希望能夠大幅提升資料中心的使用率、效能與能源效率,並且降低營運成本和總成本,現代資料中心的升級轉型勢在必行。
2018年初,賽靈思宣布啟動三大公司策略:資料中心優先、加速核心市場發展及驅動自行調適運算,其目的就是要讓所有的開發者都能受益於賽靈思自行調適平台並加速創新。在資料中心優先策略的發展之下,讓更多各式各樣的軟體和系統開發者加入自行調適運算的世界,成為推動公司加速由元件向平台轉型的策略。
2018年的XDF上,賽靈思推出功能優良的Alveo加速器卡產品系列,落實資料中心優先的策略。Alveo旨在提升雲端和在地資料中心標準伺服器效能,推動自行調適的普及應用。該產品系列目前已擴展至Alveo U50、U200、U250、U280四款產品,並已在美國、歐洲和中國市場得到廣泛應用。2019年4月,賽靈思宣布收購Solarflare,將FPGA、MPSoC和ACAP解決方案與Solarflare的低延遲網路介面卡(NIC)技術以及Onload應用加速軟體整合,進而實現新融合SmartNIC解決方案。
根據賽靈思總裁暨執行長Victor Peng在主題演說中表示,賽靈思已經開始與眾多知名伺服器OEM供應商如Dell、HP、浪潮等攜手Alveo加速,培訓企業及學術界使用者達超過7,500人,加入賽靈思加速器計畫的合作夥伴已達800多家,並發布近100個相關應用。
在推出Alveo加速器卡之後,賽靈思與OEM廠商、加值經銷商(VAR)及經銷商形成Alveo的龐大伺服器加速技術生態體系,涵蓋金融、生命科學、機器學習、分析以及影像等關鍵工作負載,共同打造更為簡便易用且功能強大的伺服器加速產業。2019 XDF亞洲站專門為ISV打造一個Alveo專區,共有來自全球各地的近20家ISV的解決方案展示,其中一半來自中國。
此外,眾多加值經銷商和經銷商等的加入,不僅豐富賽靈思資料中心生態系,也展現企業對賽靈思資料中心策略的信心。
施耐德持續推廣機械雲解決方案
想要在快速數位化的製造業取得先機,機械製造商必須提供更好的服務,協助客戶提升敏捷度和市場應變能力,同時為自己創造競爭優勢。能源管理及自動化領域的數位轉型領導者施耐德電機(Schneider Electric)持續推廣EcoStruxure Machine Advisor機械雲,透過其三層架構,機械製造商從遠端就能對其機械設備進行追蹤、監控和維護,協助操作人員更容易地管理機器的運作。
在連結性、移動性、雲端運算和大數據分析的快速推動下,數位轉型將為製造業帶來巨大的發展潛力。根據麥肯錫2015年針對製造業的一項調查顯示,至2025年,數位化將縮短20%~25%的產品上市時間,優化45%~55%專業知識,至多可減少50%的機器停機時間。
現今市場競爭激烈,機械製造商必須能夠改善機器連結性、具備即時操作預警的解決方案,以優化機械的運作效率,藉此發展維護服務等新的商機。而在提供機械操作人員這些好處的同時,也要能確保機械在使用上與資料管理上的安全性。
施耐德電機以在機械製造領域的深厚專業及經驗,推出EcoStruxure Machine Advisor機械雲,將數據轉化為深具洞察力的關鍵分析,帶動機械製造商的績效及成長。施耐德電機機械解決方案資深副總裁Ali Haj-Fraj表示,透過EcoStruxure Machine Advisor機械雲,機械製造商可以即時遠端監控、操作機器,為銷售至全球的機器增加或調整新服務。透過追蹤、監控和修正三個核心功能,EcoStruxure Machine Advisor機械雲提供一個全面連接框架,使機器可靠運作。
追蹤使機械製造商可以將所有機器的位置視覺化,並即時存取檔案和歷史記錄,例如:物料清單、手冊、維修日誌和任務管理計劃;監控幫助連結雲端的軟體不僅可即時收集機器數據,也可將其即時視覺化,以完整分析整體設備效率(OEE);可察看KPI和其他趨勢的小工具;能夠監控機器可靠性和輸出品質的儀表板;由行動應用程式App啟用的服務,借助擴增實境(AR),並運用情境資訊、逐步程序和遠端專業知識協助維修和操作。此外,修正功能還提供對雲端工程軟體的遠端存取,使服務技術人員能夠使用軟體即服務(SaaS)來獲得正確的版本和支援庫。
除了透過上述功能幫助業者提高客戶滿意度並提供創新服務,EcoStruxure Machine Advisor機械雲還能運用EcoStruxure Augmented Operator Advisor (AOA) 應用程式提供操作人員額外的即時性協助。客製化的應用透過AR提高運作效率,操作人員能夠利用AR來顯示機器或整間工廠上的數據,即時資訊唾手可得。
EcoStruxure Machine Advisor機械雲是施耐德電機物聯網平台EcoStruxure Machine三層架構─應用、分析與服務的一部份。EcoStruxure為一開放式、可互相操作的物聯網系統架構及專業生態系統,為客戶強化其在安全、可靠、高效、永續和連接性等各個層面的價值。EcoStruxure藉由物聯網、移動性、感測、雲端、分析和網路安全各領域的先進發展,持續在連網產品、邊緣控制、應用、分析和服務等各個層面不斷創新。EcoStruxure已部署在48萬多個地點,擁有2萬多名系統整合商和開發人員,並連結超過40種數位服務及160多萬項資產。
2018年記憶體市場規模超過1650億美元
產業研究機構Yole Développement(Yole)最新研究指出,2018年獨立記憶體市場規模超過1650億美元的,其中超過1600億美元為DRAM和NAND Flash。而經過連續十季的成長後,DRAM市場在2018年第四季度突然下跌。在行動、雲端運算、人工智慧和物聯網等重要趨勢的推動下,DRAM和NAND記憶體市場在過去幾年中經歷了一段大幅成長期。這些大趨勢對半導體產業,特別是記憶體市場產生了重大影響。
Yole預期,受這些大趨勢驅動的長期需求將導致記憶體繼續增加其在整個半導體市場中的比重。除了不斷成長的需求之外,過去兩年來產業領導者(例如三星、美光等)的謹慎供應管理使得DRAM和NAND Flash的總收入成長了107%,高於2016年的780億美元。
由於行動和數據中心的需求相對較弱,第四季通常是DRAM需求季節性強勁的時段,但2018年第四季度突破了歷史趨勢,儘管2018年的表現令人意外地微弱,但人們樂觀地看到NAND市場接近轉折點,因為彈性正在推動包括客戶端固態硬碟和智慧手機在內的多種應用的NAND儲存內容上升。價格環境在2019年初保持疲軟,但隨著需求開始復甦,情況正在改善,下半年市場可能會出現供貨緊俏的情況,與季節性需求復甦和數據中心需求的預期反彈相吻合。
雖然DRAM和NAND市場在經歷了前所未有的成長期後大幅放緩,但兩個市場的長期前景仍然光明。由於供應商在等待需求復甦的同時管理庫存增加,隨著記憶體市場的不斷發展,該行業面臨許多重要問題,包括:DRAM和NAND市場什麼時候會從供過於求轉向供應不足,反之亦然?供應商的盈利能力將如何受到影響?DRAM和NAND縮放的限制是什麼?隨著縮放和3D堆疊限制的臨近,內存供應商將如何做出反應?來自中國的新進入者對記憶體市場有哪些潛在影響?新供應商可能出現的時機是什麼時候?記憶體資本支出是否會持續上升?資本密集度上升是否會過高並威脅到供應商的穩定性?與DRAM類似,NAND市場最終會整合嗎?需求的價格彈性如何影響記憶體市場?DRAM和NAND之間的這些影響有何不同?
5G殺手應用現身 遊戲串流牽動科技版塊遷移
5G技術即將在2019年下半逐步進入商業運轉,但電信業者要如何從5G服務獲利,卻是個很大的問題。大頻寬、低延遲與高密度連線是5G與現有行動通訊技術最主要的三大差異,也讓5G除了提供行動寬頻服務之外,還有機會運用在自駕車、物聯網等新應用市場上。然而,這些應用不是還需要時間醞釀,就是有其他替代技術選擇,很難成為帶動5G起飛的引擎。從電競跟電玩遊戲衍生出來的應用,或將成為5G打響第一炮的殺手應用。
優必達創辦人兼總經理郭昌榮指出,電玩遊戲產業正在經歷一個全新的架構革命。以往,電玩應用的圖像運算都是利用本地端的硬體執行,但隨著網路技術進步,未來遊戲的圖像運算不一定只能依賴本地端的GPU來執行。配備大量GPU的雲端資料中心,搭配延遲夠低的網路連線,未來電玩遊戲可以像現在的影音串流服務一樣,直接把遊戲畫面串流到使用者的終端裝置上,也就是所謂的遊戲串流(Game Streaming)。
對遊戲業者而言,這是未來必然要走的路,因為在現有的環境下,一套遊戲軟體如果要跨平台發行,必須針對不同硬體平台開發出對應版本。但如果遊戲變成串流服務,開發商只要開發一個版本,就能接觸到所有玩家。此外,當遊戲變成一種服務(Gaming as a Service),遊戲開發商即便是發行單機遊戲,也可像發行線上遊戲般,取得穩定的月租費收入來源。事實上,有些日本遊戲業者已經推出包月制的商業模式,玩家只要每月付費,平台的上千種遊戲就任你玩。
除了遊戲平台商之外,遊戲發行商如美商藝電(EA)、法國育碧(Ubisoft)、日本任天堂(Nintendo),也都已經開始嘗試這種新的經營模式。例如育碧旗下大作《刺客教條:奧德賽》在任天堂的Switch平台上,就是用這種方式發行。因為Switch的硬體效能有限,要流暢執行刺客教條這類3A級遊戲大作,先天上的難度較高。
郭昌榮認為,行動通訊技術不斷演進,是串流服務市場得以擴大的最主要原因。在3G世代,串流音樂竄起,取代了MP3下載;在4G時代,串流影音服務讓消費者可以在手機、平板電腦上追劇;5G時代則可望看到電玩遊戲加入串流服務的行列。
不過,這個趨勢對硬體製造商來說,恐怕不見得有利。遊戲是最消耗運算資源的消費性軟體應用,對延遲也最敏感。因此,硬體廠商看準這個需求,近年來紛紛推出專為電玩設計的高效能硬體產品,進而大發利市。但在遊戲從本地端執行走向串流的趨勢下,未來使用者手上的終端裝置不見得需要搭載高效能處理器,也能跑得動遊戲。
這會促使硬體產業鏈必須加碼布局雲端資料中心,因為當運算任務從本地端轉向雲端,雲端對高效能運算的需求將只增不減,且因為雲端資料中心必須同時為大量用戶提供服務,因此不只要配備大量GPU,儲存系統的讀寫速度、網路頻寬、延遲等參數,都會對用戶體驗造成顯著影響。這也是優必達決定與群聯攜手合作,採用全固態硬碟(SSD)儲存方案的原因。傳統硬碟的速度太慢,無法滿足雲端遊戲串流的需求。
群聯董事長潘建成表示,電競產業發展大約是從1999~2000年開始,過去以重度的遊戲玩家為核心,但隨著直播的興起,遊戲從個人的娛樂變成了一種可觀賞的運動,比賽或活動的贊助及廣告、軟硬體及週邊商品、門票收益、轉播權利金、業餘玩家及小型比賽等,無不為這個市場帶來了龐大的產值。根據調查機構Newzoo的資料,2018全球遊戲及電競產業產值約達1,388億美元,至2021年產值將可逾1,800億美元,2022年上看2,000億美元,並預計6~8年後,創造的商業利益將超過NBA,成為第二大的運動賽事。
但電競是一個對效能需求極高的應用,不管是在本地端執行或是雲端串流都一樣。為了滿足應用需求,群聯最新款NVMe SSD控制晶片PS5012-E12不管在讀寫速度或容量上,都比先前的產品大幅提升,連續讀寫速度分別為3,450MB/s與3,150MB/s,可為需要加速密集資料傳輸的遊戲環境帶來更高的用戶體驗。此外,1TB與2TB的隨機讀取/寫入速度均可達600K/600K IOPS,適合多執行緒程式應用(Multi-threaded applications)和數據密集的多重作業環境。
深度學習/雲端架構聯手發威 系統晶片設計進入新境界
近期EDA產業內最熱門的兩個話題,分別是導入深度學習與工具雲端化,而這兩個議題其實互為因果,彼此高度相關。要探討這兩個議題之前,必然要先從最底層的硬體計算平台發展開始談起,因為超級電腦是支撐深度學習與雲端EDA的基礎。
超級電腦為EDA雲端化重要推手
超級電腦跟一般典型的雲端伺服器不同,其發展方向在於提供更多運算效能,給某些需要極高運算力的應用或服務使用。目前全球最快的超級電腦是由IBM打造,位於美國橡樹嶺國家實驗室的Summit(圖1),但是在過去幾年裡,世界最快的超級電腦卻在中國。
圖1 位於美國橡樹嶺國家實驗室的超級電腦Summit。
目前世界排名第二跟第三的超級電腦,分別是中國國家平行計算機工程與技術研究中心所開發的「神威.太湖之光」與中國國防科技大學打造的「天河二號」。
Summit並非典型的雲端伺服器,反而更像是一個高度專業化的獨立雲端數據中心。Summit中的每個節點都有兩個22核的IBM Power 9處理器(CPU)及6個NVIDIA Tesla V100加速器,整個系統共有4,608個節點(最終4,096+512個節點,所以它在只會計算2次方的電腦科學家眼裡看起來並不那麼奇怪),Summit事實上是一個採用了202,752核Power 9及27,648個NVIDIA Volta GPU的超大型系統,外加10PB的DRAM及250 PB的存儲空間(假設它是Flash儲存的)。
其峰值性能為每秒200千兆/千萬億(1015)次的浮點運算。美國能源部計畫在2021年開展一個每秒100京/一億億億(1018)次浮點運算等級的機器。
這些怪獸級的超級運算機器,不僅是用來進行深度學習訓練的利器,也是EDA工具業界得以推出雲端化解決方案的原因
EDA大舉走向雲端
EDA工具業者近來在雲端布局上動作頻頻,如益華電腦(Cadence)近期便宣布推出「Cadence Cloud」。這個雲服務的內容包羅萬象,並皆能促使Cadence的工具通過雲端的槓桿作用,將效能表現推升到新的境界。有些工具因為可以擴展到上百或上千個內核,而成「雲端就緒(Cloud-ready)」的設計工具。另一種方法則是使用大量內核,藉由平行運算架構更快地完成運算任務。這種方法的最好的例子是「元件庫特徵化(Cell-library Characterization)」,使用者可以在上百個Corner及上千個元件中找到成千上萬正在處理的工作。
高度平行化與使用大量運算核心,對IC設計的許多環節而言,可以帶來很大的速度優勢。路易斯.卡羅爾(Lewis Carroll)所著的 「愛麗絲鏡中奇遇」(編按:本書為愛麗絲夢遊仙境的續作)中有一段著名的話可以代表設計規則檢查(DRC)小組組長的觀點:
紅皇后回答:「那真是個慢郎中的國家!在這裡,你必須拚命的跑,才能留在原地;如果你要到另一個地方,你要跑得比剛才快一倍才行。」
對DRC來說,每增加一個流程節點,需要檢查的設計規則數量就會翻倍。更嚴重的是,這些規則的複雜性亦以兩種方式遞增(圖2);其中一個是「由真實的物理尺寸所決定的規則」,最典型的就是跟微影(Lithography)製程效應相關的規則。這意味著隨著尺寸越小,就會有越多的多邊形需要處理;其次是規則本身就變得更加複雜。在晶片開發的早期,幾乎所有規則都是簡單的最小寬度、最小間距或封裝規則,沒有任何規則取決於互連中的當前方向、沒有金屬反射規則、沒有因開放平台通訊(OPC)不允許某些尺寸而導致的規則、也沒有用於「多重圖形(Multiple Patterning)」的著色規則。
圖2 設計規則數量成長趨勢
由於「縮放定律(Dennard Scaling)」已經結束,以及半導體產業的某些因素,電腦運算效能的成長速度已經放慢,結果就是晶片設計過程中的DRC步驟,需要越來越長的運行時間。
就像計算機科學中只有三個數字(0,1,∞)一樣,對EDA使用者來說,運算任務的執行時間其實只有四種等級:
1.在我去喝杯咖啡或回覆電子郵件時,工作就已經結束了。它的運行速度已經夠快,如果能更快當然是最好,但那不是重點;
2.運算任務大概需要吃一頓飯的時間,所以使用者每天有兩次設計迭代(Iteration)機會,就是吃午飯跟晚飯的時間;
3.運算任務要花一整個晚上執行,所以設計者每天都會有一次設計迭代;
4.運算任務需要好幾天的時間執行,所以使用者會盡可能的避免運行整個晶片設計,但這在設計簽核(Signoff)時是無法避免的。
不用說,第一、二甚至第三種狀態,都比第四種狀態更可取。但實際情況是,不只Signoff DRC無法在一夜之間完成,跑個三天都不算罕見,甚至連某些子平台也需要超過24小時的運行時間。更糟糕的是,DRC需要具有大量記憶體及處理器核心的機器,而它們價格昂貴,因此很少見。
目前業界所使用的典型「作業調度程序(Job Scheduler)」(如LSF或RTDA)無法優雅地處理它們。如果你需要四台同時具有巨大記憶體容量的機器,那麼作業調度程序必須讓第一到第三類作業空等,讓第四類作業有最高優先順序。這會在等待時浪費一些最昂貴的計算資源,而且由於這樣的機器很少,所以即使是開始工作的延誤,也是很大的浪費。
因此,業界需要評估不同的做法,在自有特殊伺服器農場或使用公有雲提供的大量普通伺服器之間進行權衡。不過,相對的,軟體工具也必須具有這種支援大量平行化與不同運算架構的彈性。
新軟體架構支援各種布署方案
以Cadence為例,該公司近期發表的Pegasus就可以在模擬或客製的環境中運行,並與Virtuoso平台以及Innovus實現系統(Implementation System)無縫整合。關鍵是它使用目前晶圓廠認證的PVS平台。
和其它命名中帶有「-us」字尾的產品相比, Pegasus的平行化程度更高。它是第一個將流水線基礎設施與資料流架構(Dataflow Architecture)結合的解決方案,可在上百個CPU上實現「近線性可擴展性(Near-linear Scalability)。它是雲端就緒的產品,能夠在內部伺服器或亞馬遜雲端服務(AWS)等外部商業雲端上運行。對使用者來說,Pegasus可以直接在高峰使用期間,例如DRC送交設計定案(Tape Out)時,從公有雲逐步添加大量資源。
Pegasus的早期客戶之一是德州儀器(TI);與其現有的解決方案相比,他們已成功使用大量的Pegasus CPU,大幅降低了全晶片DRC的運行時間。另一位早期客戶是Microsemi,它發現以前需要運行24小時以上的工作可以在幾個小時內完成。結果如圖3所示。在沒有Pegasus的情況下,在「時序收斂(Timing Closure)」後可以預見昂貴的延遲,而在有Pegasus的情況下,DRC及最終的「工程變更指令(ECO)」週期是快速且可預測的。
圖3 高度平行化並可支援外部運算資源的Pegasus可明顯減少DRC執行的時間。
根據Cadence彙整的資料,在使用360個處理器核心的條件下,三個不同客戶的實際設計加速了6倍到12倍不等。更重要的是,Pegasus還可支援更多核心,且效能還可持續增加。圖4顯示,Pegasus可支援160、320、640個CPU核心,且效能可持續提升。許多平行化工具在數十個CPU核心上運作,可表現出令人驚艷的加速成果,但核心數量增加到一定程度後,再添加額外的處理器核心,就不再有進一步的改進,甚至在某些情況下,由於協調CPU資源的工作成為瓶頸,反而會導致速度減慢。
圖4 Pegasus的可擴展性
因此,Pegasus允許企業利用內部伺服器中的大量通用伺服器,有效地擴展到上百個核心。當內部資源耗盡或無法使用時,Pegasus可以銜接雲端上的資源繼續使用。
不過,筆者還是要提醒,當開發團隊擁有近乎無限量的處理器核心時,很容易造成運算資源的浪費,而這個代價可不便宜。浪費模擬或浪費迭代太容易了。
EDA上雲端 機器學習水到渠成
當雲端及EDA都匯集在一起時,機器學習的元素,就可以很自然地加入其中。
與Cadence...
首款AI加速平台出鞘 Xilinx全面擁抱人工智慧
人工智慧AI發展全面展開,可編程邏輯廠商美商賽靈思(Xilinx)認為,未來已經沒有一個架構可以滿足所有的應用需求,因此該公司正式踏上轉型之路,舉辦賽靈思開發者大會(XDF),並發表未來幾年的技術與產品重點,全面擁抱人工智慧的發展趨勢,以資料中心(Data Center)為發展策略的起點,目標為打造靈活應變、萬物智慧的世界。
一直以可編程技術為發展重點的Xilinx,2018年3月正式啟動策略轉型工作,宣示該公司從元件廠商轉型為平台廠商,提出自行調適運算加速平台(Adaptive Compute Acceleration Platform, ACAP)發展核心,旋即於10月推出第一款產品Versal。Xilinx總裁暨執行長Victor Peng表示,Versal字面上是由Variety與Universal組合而成,希望在技術與應用上可以兼顧多樣性與通用性。
在AI無所不在的時代,AI應用日新月異,晶片設計週期已經落後創新的速度,因此Peng認為,FPGA彈性的特點可以應用在AI的創新上,一般新晶片設計週期高達24個月,透過ACAP平台的協助,可將AI模型加以拆解,變成數個不同的發展(Develop)、優化(Optimize)、部署(Deploy)流程,該平台動態範圍廣泛彈性,可針對不同的應用調整需要的加速範圍。
Versal ACAP結合純量處理引擎(Scalar Processing Engine)、Arm Cortex-A72與Arm Cortex-R5,以及自行調適硬體引擎(Adaptable Hardware Engine),可動態重新配置,即時加速能力最高達八倍;DSP引擎可提供高準確性浮點運算與低延遲;AI引擎具有高傳輸率、低延遲與高效率,可協助AI推論與高階訊號處理,搭配先進記憶體和介面技術,可提供強大的異質加速能力。不管是軟體開發者、資料科學家或是硬體開發者,只須利用符合業界標準設計流程的工具、軟體、函式庫、IP、中介軟體以及框架,就能針對其硬體與軟體進行編程與最佳化。據了解,Versal採用台積電7奈米FinFET製程,正式量產時間為2019年第二季。
Xilinx也以現有UltraScale+ FPGA為基礎,發表Alveo U200與Alveo U250加速卡,就機器學習而言,Alveo U250的即時推論傳輸率比高階CPU高出20倍,甚至在低於2毫秒的低延遲應用方面,也比高階GPU這類固定功能加速器高出4倍。此外,Alveo加速器卡的延遲較GPU減少3倍,在資料庫搜尋等應用方面大幅加速、並提供較CPU高出90倍的效能。
Xilinx總裁暨執行長Victor Peng表示,FPGA靈活彈性將有助AI創新應用發展。
英特爾加碼10億擴產14nm 2019年10nm量產
為了緩解CPU供應吃緊以及消弭外界對於營收短少的顧慮,英特爾(Intel)日前宣布將增加資本支出,加碼10億美元,擴產14nm晶片產能,以因應客戶需求;並重申預期今年增加資本支出將達到150億美元,並預計在2019年量產10nm晶片。
英特爾首席財務長兼臨時首席執行長Bob Swan表示,數據資料持續以爆發性的速度成長,且企業、消費者對於資料處理、儲存、分析與共用的需求越來越高,不僅推動許多創新應用,也驅動雲端、網路與企業對於高效能運算的需求。基於此一趨勢,到2018年6月份,英特爾以資料為核心的業務成長了25%,雲端運算收入上半年大幅增加43%;而以PC為核心的業務表現得更加驚人。
Bob Swan進一步說明,根據Gartner報告指出,2018年第二季度全球PC出貨量出現了6年來的首次成長。因此,該公司也預計,今年PC總體潛在市場規模(TAM)將自2011年以來,首次出現溫和增長,主因是遊戲和商用系統的強勁需求所帶動。
然而,PC的成長也為英特爾帶來了挑戰。Bob Swan指出,PC總體潛在市場規模突然重返增長,為英特爾各工廠帶來了壓力。要滿足高性能細分市場的需求。這意味供貨會顯得吃緊,尤其是在入門級PC市場。目前英特爾正優先安排Xeon和Core處理器的生產,而我們也相信未來將有足夠的供貨來達成7月份所宣布的全年營收展望,也就是比1月份的預期高出45億美元。
為了因應此一挑戰,Bob Swan透露英特爾將採取以下行動。英特爾於2018年投入的資本支出將創紀錄達到150億美元,較年初計畫增加了約10億美元。該公司正將這10億美元投入到美國俄勒岡州、亞利桑那州,以及愛爾蘭、以色列的14nm生產基地,提高供貨量,以因應不斷成長的市場需求。
同時,Bob Swan也指出,英特爾在10nm晶片製程上也持續取得進展,升產良率不斷提高,因此,仍會繼續維持2019年實現量產的計畫。