AI
大聯大世平推出人工智慧攝影機
零組件通路商大聯大控股近日宣布,旗下世平集團將推出英特爾(Intel)以低功耗嵌入式視覺處理器(Movidius)晶片為基礎所開發的閱面科技(ReadSense)人工智慧攝影機。
閱面科技(ReadSense)繁星人臉辨識模組是以深度學習演算法和嵌入式技術為基礎,完全自主研發的一款人工智慧產品。產品設計搭載性能佳、低功耗嵌入式視覺處理器,整合多種視覺識別演算法。主要特點包括本地運算、功能豐富(支援多種機器視覺功能)、尺寸小巧與易於部署。
該方案搭載Intel高效能視覺處理器(Movidius),中央處理器(CPU)運算功能卓越。傳輸延遲小於100ms,可不依賴網路頻寬/速率;也毋須使用額外伺服器,能節省伺服器部署/維護成本。
人工智慧中的人臉識別為相當重要的功能,可應用於多個重要領域,包括門禁系統、影像監視系統、出缺席考勤系統、客流統計、屬性分析等。該方案功能多元、尺寸小巧、易於整合,適合為人臉識別所用。
人工智慧用處多 半導體製造走向智慧化
為了確保最終良率,每家半導體業者都必須在晶圓生產過程中安插或多或少的製程控制(Process Control)節點。這些節點除了可監控晶圓製程的良率變動外,也能早期發現有問題的晶圓,避免其進入下一個製程步驟,徒然浪費時間。
然而,製程控制是相當昂貴的,除了要設置對應的檢測機台外,檢測本身也需要時間,更需要人力來判讀機台數據背後所代表的意義。因此,製程控制究竟該如何進行,才能在效率與良率間取得平衡,遂成為每家半導體製造業者都必須回答的問題。
製程資料浩瀚如煙海 AI加快分析速度
台大資工系教授張智星(圖1)表示,對晶圓製造業者而言,從製程機台取得資料只是第一步,後續的資料分析才是能否從資料中萃取出關鍵資訊,進而改善營運、提升良率的關鍵。過去他曾經領導一支研究團隊,利用台積電提供的資料,結合機器學習技術,發展出可自動對晶圓缺陷分布圖進行分類的軟體應用。這項研究的成果,就為台積電帶來很大的經濟效益。
圖1 台大資工系教授張智星表示,藉由機器學習,軟體系統可以自動判斷晶圓缺陷的分布狀況,省下大量人力跟時間。
張智星解釋,晶圓上不合格晶粒的分布狀況,是用來分析製程缺陷成因的重要資料。某些特定的缺陷分布狀態,可以回推出造成晶粒缺陷的原因,例如當不合格晶粒在晶圓上呈線型分布時,晶圓在製作過程中被刮傷,就是最可能的原因。
圖2是幾種典型的缺陷分布型態,對人類來說,這種缺陷分布的圖樣是很容易分辨的,因為其輪廓特徵的差異十分明顯,例如缺陷高度集中在晶圓的某個特定角落、中央或是環狀分布在晶圓的邊緣,而這些圖案之所以出現,跟前面的某幾道製程步驟有關。因此,晶圓缺陷分布圖是製程工程師檢視製程狀況非常重要的工具。
圖2 幾種典型的晶圓缺陷分布狀態
過去台積電的製程工程師每天都要耗費不少時間檢視不良晶粒的分布圖。而隨著台積電的產能規模越來越大,工程師耗費在這上面的時間也越多。張智星指出,根據台積電當時提供的資料,2013年第一季,該公司總共生產了388萬片晶圓,相當於每天產出4.3萬片晶圓。這意味著當時台積電的工程團隊每天得看4.3萬張分布圖,耗費的人力跟時間是相當可觀的。而隨著台積電的產能規模越來越大,這項成本花費只會更高。
也因為如此,台積電很早就開始把腦筋動到機器學習上,因為圖形辨識跟分類,正是機器學習最擅長的應用。若能成功導入,每年可以省下至少100萬美元以上的人力成本。
張智星表示,因為他的主要研究領域是資訊工程,對半導體製程所知有限,因此在與台積電合作的過程中,只專注在圖像辨識上。在他的研究團隊拿到台積電提供的資料集之後,就開始分析,這些缺陷分布圖究竟有那些特徵,是可以被萃取出來的。
其中,最直觀的就是圖形的輪廓,這是人類的眼睛一眼就能看出的特徵。但還有其他不那麼直觀的特徵可以利用,例如雷登變換(Radon Transform)。也可以用統計取樣的技巧來對缺陷圖進行分析,例如對整片晶圓進行2乘2矩陣取樣,然後予以編碼,也能得出有意義的數值。
DNN應用有其限制
不過,張智星也提醒,雖然神經網路是一項很紅的技術,但神經網路不是所有資料分析問題的理想解答。以深度神經網路(DNN)為例,這項技術要能派上用場,先決條件是要有大量的資料集,而且最好是影像資料。其次,必須有非常強的運算硬體支援,不然會跑不動。換言之,如果可以用來訓練神經網路的資料集不夠,或是手上可用的運算硬體效能不足,最好還是別使用神經網路。
此外,DNN還有一個特性,是所有想利用DNN發展應用的開發者都必須注意的--DNN系統雖可產生預測結果,但卻無法解釋這個預測結果是怎麼來的。換言之,DNN只知其然,不知其所以然。如果應用需求不只要預測結果,還要進一步解釋為何是這個結果,最好別使用DNN。了解每個工具的特長,用最適合的工具來解決問題,是很重要的。
設備業者看AI--產品加值/升級的關鍵
由於半導體設備很早就已經實現機台聯網跟資料互通,因此對半導體設備商來說,如何用人工智慧提升機台的產能/稼動率,或是加快新機台研發的速度,是比較關切的話題。
Lam Research副總裁暨首席工程師Keith Wells指出,AI技術已經成熟到可以對產業應用產生影響,而且成本合理的地步。在Lam Research內部,針對AI應用的議題,發展方向比較偏向智慧製造的層面,例如透過其Equipment Intelligence套件,讓機台具備自我感知、自我維護與自動適應的能力。
自我感知指的是機台對於其內部零件具備感知能力,包含零部件的種類與零部件過去、現在的狀態。自我維護則是指機台能知道何時需要維修,並且會自動進行維修。自動適應則是指機台能因應製程跟來料變化自動進行補償,以便把生產良率維持在一定水準之上。
就設備供應商的角度來觀察,半導體設備的智慧化跟晶圓生產的智慧化,是未來必然要走的路,因此整個生態系,包含機台本身、整個晶圓廠與機台零部件的供應商都必須攜手合作,實現資料共享。Lam Research對於以AI為基礎的半導體智慧製造有很強的承諾,並且正與其客戶合作,共同打造能符合未來需求的解決方案,包含更強大的資料存取系統,以及先進分析工具環境。
但對半導體設備供應商來說,最大的挑戰來自於客戶需求的多樣化。每家客戶對於如何利用AI來提高生產力這個議題都有自己的想法,而且彼此之間或多或少有些出入。因此,客戶通常都想要客製化的解決方案。但客製化通常意味著更長的開發時間與更高的開發成本,因此業界必須創造一個大家都能接受的標準化框架,才能加快產品交付到客戶手上的速度。
科磊(KLA-Tencor)對AI的應用方向,看法也跟Lam Research有些類似。該公司資深副總裁暨行銷長Oreste Donzella表示,由於科磊的主力產品是半導體檢測設備,涉及到很複雜的光學設計,因此在產品開發過程中,用機器學習來進行各種條件模擬,加快新產品設計開發的速度,已經是行之有年的作法。
至於晶圓檢測設備所產生的大量資料要如何利用人工智慧進行分析,通常是由客戶端主導,科磊則扮演從旁協助的角色。因為這些資料是客戶的商業機密,所以資料要如何分析跟使用,還是要由客戶做決定。
不過,針對後段封裝跟測試,情況就不太一樣了。Donzella指出,跟前段晶圓製造相比,封裝業者分析跟控制資料的能力比較不成熟,因此封裝業者要發展自己的人工智慧系統進行資料分析,難度相對較高。因此科磊也正在評估,自家的軟體跟服務部門能如何協助封裝業者,在導入人工智慧的路上向前邁進。
邊緣/5G帶動下一波DRAM成長 2020年後成資料中心發展主軸
伺服器是目前僅次於智慧型手機的DRAM重要產能出海口。儘管目前僅居第二,然而未來由於人工智慧、邊緣運算與5G的需求崛起,伺服器的DRAM需求將巨量上升,前景相當可觀。
DRAMeXchange研究經理黃郁璇預測,在2020~2021年,行動裝置的DRAM消耗量還是會居於世界第一,大部分的DRAM產能還是會到行動裝置上。然而,黃郁璇認為,到了2021年後,由於伺服器的應用更寬廣,容量又無上限,因此有可能會取代行動裝置在眾原廠心目中的地位。
DRAMeXchange資深分析師劉家豪進一步指出,現階段產業普遍專注於雲端到端點(Cloud to Device)的連線,此模式將會隨著使用量的增加而造成延遲。然而,如自駕車、智慧醫療、工業物聯網的應用實行上,對於延遲的容忍度較低,必須藉由未來5G落實之後,透過5G伺服器與閘道器(Gateway)的協同處理,邊緣運算才能夠解決此延遲情境。資料中心的落實成為近年DRAM需求的主要推手,占DRAM市場全年三成以上的消耗量。
在倚賴雲端架構提供服務的基礎上,終端被賦予的運算能力相對薄弱,多是藉由雲端來獲取運算與存儲資源。然而,未來5G商轉後將賦予資料中心活化的因子,帶動微型伺服器(Micro Server Node)與邊際運算成長,並將成為2020年後的產業發展主軸,以實現物聯網與車聯網等應用場景。由2017年開始,北美兩大電信營運商AT&T與Verizon已陸續開始在投入5G伺服器的配套措施,這也是台灣與中國的ODM、OEM廠商在未來需要關注的市場重點。
加快邊緣運算步伐 Intel推全新視覺加速器方案
英特爾(Intel)積極拓展邊緣運算版圖,於近日發布全新視覺加速器設計產品(Intel Vision Accelerator Design Products),強化邊緣裝置人工智慧(AI)推論與分析能力。此一解決方案包含Intel Movidius視覺處理器與Intel Arria 10 FPGA,皆以OpenVINO軟體工具套件為基礎,提供開發者在多種Intel產品中使用進階的神經網路效能,在物聯網裝置中運行更具成本效益的即時影像分析和智慧化功能。
為了降低雲端運算工作負載,實現更多創新應用,邊緣運算需求與日俱增,應用開發商與半導體業者皆積極將深度學習或機器學習導入前端設備,希望使前端裝置也有人工智慧的能力,而這過程中也有許多挑戰須克服。
英特爾資深副總裁暨物聯網事業群總經理Tom Lantzsch表示,以往企業在導入深度學習技術上遇到許多困難,不論交通運輸、智慧城市、健康照護、零售與製造業,都需要專業知識、種類廣泛的多樣化裝置與具擴充性的解決方案,以進一步發展深度學習。而新推出的視覺加速器設計產品可提供更多選擇與彈性,加速AI邊緣運算發展,以產出更多即時性資訊。
據悉,新發布的視覺加速器設計產品運作方式,是將AI推論的工作負載轉移至Movidius視覺處理晶片陣列,或高效能Intel Arria 10 FPGA的專屬加速卡上;且開發者可透過OpenVINO工具套件,將Intel CPU與Intel內建GPU上的深度學習推論應用與設計成果,輕易延伸至這些全新的加速器設計之中,藉此節省時間與費用。
英特爾指出,用此一視覺解決方案的企業,不論是在資料中心、現場部署伺服器或於邊緣裝置內採用深度學習人工智慧應用,深度學習推論加速器皆可擴充至其需求程度。
此外,英特爾也透露,相較於Discrete GPU,新推出的視覺加速器產品優勢在於封裝小,可用於體積小的邊緣設備,且功耗更低(約10~20瓦);同時為了因應市場多元的應用,不僅是新發布的Movidius視覺處理器和Arria 10 FPGA以OpenVINO為基礎外,其餘產品線如XEON、CORE i7和ATON等,也都支援OpenVINO,讓開發者依據自身需求選擇合適的晶片,打造具深度學習功能的邊緣裝置。
性別/年齡AI看手就知道
各位以為用人臉識別性別年齡就很厲害了嗎?這篇文章要來讓各位瞧瞧深度學習的黑科技可以黑到甚麼程度。只要透過手的照片,就能夠知道性別與年齡,透過卷積神經網路就能做到這麼神奇的效果。
本文將從數據到模型,透過微軟的深度學習框架CNTK以及臉書的深度學習框架Pytorch,來實作根據手的照片來判斷人的性別與年齡。以下解說部分張貼的皆為CNTK代碼,並附上兩個框架代碼。
首先關於使用的數據來自Google,他提供了一組數據包含了11,000張手部的照片(圖1),同時包含手的主人的性別年齡與種族。我們將會擷取裡面的性別(類別)與年齡(連續)數據來作為輸出變數,手部圖片作為輸入特徵。
圖1 Google提供了一組數據包含了11,000張手部的照片。
由於下載後還要自己整理圖片有些許麻煩,因此我也已做好圖片的懶人包,將圖片數據向量化,以及比對好標籤檔的結果,並以Pickle檔案格式儲存。
圖2為解析完的結果,清單內的每個項目也是一個子清單,裡面分別包含兩個Ndarray,第一個是形狀3×64×64的向量代表圖檔。請注意,CNTK與Pytorch都是CHW格式:通道×高×寬。另一個則是形狀為3的向量,裡面三個數值分別為id(數值相同代表是同一個人的不同角度的手)、年齡(介於0~100)以及性別(0是表示女性,1是表示男性)。
圖2 Google手部圖片分析後的結果
CNTK與Pytorch的圖片格式要求是一樣的,在各家深度學習框架中,僅有Tensorflow的排列順序相反。向量維度的排列是CHW(通道×高×寬),顏色的排列順序是BGR(藍綠紅),也就都是依照字母順序排列。
關於圖片與向量的轉換方法如下:
def img2array(img: Image):
arr=np.array(img).astype(np.float32)
arr=arr.transpose(2, 0, 1)#轉成CHW
arr=arr #顏色排序為BGR
return np.ascontiguousarray(arr)
def array2img(arr: np.ndarray):
sanitized_img=arr#轉成RGB
sanitized_img=np.maximum(0, np.minimum(255, np.transpose(arr, (1, 2, 0))))#轉成HWC
img=Image.fromarray(sanitized_img.astype(np.uint8))
return img
為了供給建模使用的資料讀取器,同時也因為我想要畢其功於一役,讓兩種框架都可以一次適用,所以我寫了一個通用的讀取器來供應每個Minibatch所需要的數據。其中讀取圖片時,我將圖片向量除以255,而且讀取年齡時,我將數值除以100,都是為了確保數據可以介於0~1之間,以方便收斂。在這個範例中因為篇幅關係暫時不放數據增強(Data Augmentation)。利用函數,每次調用都可以回傳圖片以及所需要標籤。此外,要注意的是打亂圖片順序這個步驟很重要,Google的數據是有按照性別排序的。
在這裡要示範的卷積神經網路骨幹網路用的是我最近很推崇的一篇文章所介紹的新架構「DenseNet」,原始論文出處為「Densely Connected Convolutional Networks」。
傳統的卷積網路都是線性的,但當層數越多時,就有可能發生梯度彌散的問題,造成模型無法收斂。正因如此,微軟亞洲院2015年發展出的殘差神經網路(ResNet)就使用了跳轉連接(Skip Connection),以有效的將梯度挹注到後面神經層,這樣模型就可以做出超深的架構,也不用擔心難以收斂。
微軟2015年就以152層的ResNet獲得了當年的imageNet冠軍。但是深度學習在訓練的過程中,當卷積神經網路將梯度傳送到後層的時候,都會發生特徵被隨機遺失,這樣這個特徵就再也傳不下去而無用了。為了解決這個問題,DenseNet的基本概念就是,每一層的特徵都會傳送到後面的「每」一層,這樣就可以有效的確保訊號不被丟失。
圖3 ResNet架構
DenseNet的基本結構稱之為稠密單元(Dense Block),它有幾個重要的超參數:
·k:稠密單元層數
·n_channel_start:初始通道數
·glowth_rate:通道成長數
以圖4為例,假設下圖是一個k=4(向下傳遞4次,所以共5層),初始通道數32,成長數為16的Dense Block,分別計算每一層的輸入通道數(從前面傳進來):
圖4 5層架構的Dense Block
X1:32+16(來自於X0)=48
X2:48+16(來自於X1)=64
X3:64+16(來自於X0)+16(來自於X1)=96
X4:96+16(來自於X0)+16(來自於X1)+16(來自於X2)=144
Growth Rate有就是每次會傳遞多少通道到後面的層數,以上面說明案例固定數值為16,但該卷積層的通道數比這數字更大,因此等於是強迫每個卷積層要做一次特徵選取,將特徵精選之後傳至後方。這種「Save...
Xilinx AI轉型拉攏資料中心 劍指Intel、NVIDIA
自行調適與智慧運算廠商賽靈思(Xilinx),多年來以可編程邏輯元件技術立足產業,為了在人工智慧(AI)的創新浪潮中注入下一波成長動能,啟動成立以來最大規模的轉型工程,並在日前的北京賽靈思開發者大會(XDF)中,積極與大陸雲端服務業者華為、阿里巴巴、浪潮等公司合作,搶占AI運算/推論市場,與布局較早的GPU、CPU競逐雲端AI應用大餅。
FPGA最大的特點就是靈活的可程式化與高運算能力,過去常被用在需要高運算效能或創新應用尚未發展出適合的ASIC時,面對AI浪潮席捲,AI無所不在的時代即將來臨,為搶占廣大的深度學習網路運算市場,各類運算平台積極布局AI運算,包括Intel為首的CPU、NVIDIA為主的GPU,FPGA龍頭Xilinx也投入,雲端AI運算市場競爭激烈,各家廠商積極合縱連橫布局產業生態系(ecosystem)。
以投入較早的NVIDIA為例,目前在AI競爭當中取得暫時的領先,該公司目前已經發展一系列的硬體晶片與板卡,搭配完善的開發環境、AI深度學習框架、軟體函式庫等,產業鏈初具型態;而昔日資訊運算霸主Intel,近年則是透過許多投資與併購,希望能扭轉CPU不適合深度學習運算的劣勢。相較之下起步較晚的Xilinx今年大動作投入,走向平台化並創建自行調適運算加速平台(Adaptive Compute Acceleration Platform, ACAP),Xilinx總裁暨執行長Victor Peng表示,首款產品Versal就採用最先進的台積電7奈米FinFET製程。
在北京XDF Peng強調,ACAP可以透過彈性化的調整,協助整體應用的加速,縮短執行時間,而不是只最佳化機器學習流程。Versal將發展成一系列的產品解決方案,包括應用廣泛的Prime、強化推論功能的AI Core、低功耗的AI Edge、高速傳輸的Premium、整合RF功能的AI RF、整合記憶體堆疊,應用在高階資料中心的HBM。
而在這個階段,Xilinx也以資料中心為其發展的優先戰略,XDF中並與中國大型雲端服務業者華為、阿里巴巴、浪潮結盟。華為智能計算業務副總裁張小華說明,採用華為雲技術,華為硬體以及Xilinx FPGA,建構一套統一的線上線下協同平台,採用相同的生態系統、環境資料、共同的安全協議以及管理協議。
阿里巴巴FPGA異構計算研發總監張振祥則說,阿里雲FPGA已經發展到第三代產品與架構服務,隨著未來新架構上市,當能提供更迅速更確實並安全的運算服務。浪潮集團副總裁李金指出,該公司致力於打造AI全面性的產品布局,從運算平台高效的管理系統套件到深度學習框架的最佳化、終端解決方案四個層次為客戶提供迅速、高效、最佳化的AI運算基礎設施。
導入AI電網管理效率提升 虛擬電廠平衡電力供需
為了改善突發性的缺電問題並維持電網平衡,先進國家率先在電力市場導入需量反映制度,藉由要求客戶在尖峰時段關閉空調等設備,將省下來的電回饋給電網,以調度電力給急需用電的客戶、並支付節電獎勵,或是透過以價制量的方式,針對尖峰用電收取較高的電費,刺激客戶減少在尖峰時段的用電量。因此,部分能源業者瞄準需量訂價的需求缺口,協助客戶在電費較高的用電時段,從高價的電網電力轉向使用較便宜的蓄電池電力,讓客戶在不改變用電行為下,降低營運的電力成本,如美國STEM。
此外,為了改善再生能源供電不穩的問題,也有能源業者從自產自用的綠電生產者(Prosumer)角度思考,協助綠電生產者運用蓄電池儲存餘電,以便於需要時或電價較高的時段,使用蓄電池的電力來降低電費,或出售給急需用電的人來賺取營收,如德國Sonnen和美國Tesla。
STEM結合AI與儲能技術優化用電
STEM創立於2009年,前三年專注於儲能技術的研發,申請多項儲能相關專利,直到2012年才將公司從原本只提供硬體相關的儲能系統,轉為優化客戶用電之儲能服務,透過結合儲能、大數據分析及雲端運算技術,協助企業用戶在不改變原本的用電行為下,降低電費。此思維與傳統的能源管理方案不同,過往企業要降低用電成本,多從節能角度思考,有時甚至得配合電力公司在用電尖峰時段減少用電,但像飯店、工廠、養殖漁業等日常運作易受缺電所影響的產業,其電費將因需求高峰時段的加價,難以控制用電成本。
STEM並不僅是協助企業用戶控制用電成本,其最終目標是優化電網的服務效率,如降低電網尖峰負載、改善再生能源併網所產生的間歇性電力入網等電網平衡議題。因此,STEM一方面提供企業用戶服務,另一方面擴張其儲能站點,以累積足夠的可調度電力,協助電力公司進行大範圍場域的電力調度。此種透過儲能設備之間的相互連接所形成的蓄電池網路,構成了「虛擬電廠」,能在電力市場中扮演供電者的角色。
此虛擬電廠的概念於2015年初步被驗證。STEM藉由參與加州電力系統營運機構標案,進入到加州的電力零售市場,透過預測軟體將所設定的目標價格與市場競價,並自動調配可調度之儲電電力到電網中,且成功調度電力給PG&E(太平洋瓦斯電力公司)。
目前STEM已有800多個儲能站點(主要分布在加州和夏威夷),其中超過100個儲能系統參與虛擬電廠計畫,提供緊急電力調度服務,2017年內即有600多件虛擬電廠調度案例。特別是6月中的熱浪造成電價飆高,STEM於1小時內完成橫跨七區電網的電力調度,解救加州面臨大區域停電的威脅。
只有儲能技術並不足以協助用戶優化電力使用時段,需要一套機制判斷何時該用電網電力、何時該轉用蓄電池之電力。在STEM的解決方案中,由智慧能源監控裝置(Power Monitor)蒐集用戶電力使用習慣、當時氣候、電價等數據,進行用電行為之分析與預測,並透過PowerScope提供用戶可視化的分析報告,供用戶做營運決策之參考,如關燈、溫度調控、關閉部分設備等。然而,最關鍵的蓄電池放電與儲電時機的判斷,則交由儲能網路及系統背後的大腦--Athena,制定既快速又精準的用電優化策略。
Athena為全球第一個運用在儲能和虛擬電廠策略的人工智慧系統,透過大數據分析與深度學習技術,每分鐘可處理400MB資料,持續學習並改善其邏輯演算法。由於進行即時優化用電的決策過程非常複雜,即便擁有儲能技術,還必須經過數以千次的計算、預測模擬及瞬間判斷才能掌握低成本的用電時機。目前Athena已學習超過500萬小時,處理近兩億筆數據,並進行超過3,500萬次模擬預測,以確保掌握客戶的用電行為,精準地判斷切換電力來源的時機。
透過Athena的自動決策,可協助客戶進行24小時能源管理,在不增加客戶的工作負擔下,每年替客戶省下約800萬美元。此外,客戶還能加入虛擬電廠計畫,與800多個儲能站點共組虛擬發電廠,在電力市場賺取額外收入。
Sonnen P2P電力交易平台共享社區綠電
Sonnen於2010年成立,最初從家庭蓄電池製造進入市場,協助用戶解決太陽能供電不穩的特性,透過住宅式的儲能設備將餘電儲存,並結合社區能源共享與電力交易平台,讓用戶除了享受自用發電零電費,透過各家戶所裝設的儲能設備聯網,還能在自家發電不足時向鄰居借電,或是在餘電過盛時提供給需要用電的家戶。隨著Sonnen電池逐漸滲透市場,將所有蓄電池集結起來,甚至可以向電網供電,成為當地的虛擬電廠。
目前Sonnen已成為歐洲最大的蓄電池製造商,約有三萬套系統在全球營運,市占率超過20%,除了歐洲,也銷售至美國和澳洲。其中,Sonnen虛擬電廠服務已被驗證,並向德國、義大利、奧地利和瑞士的10萬名用戶提供虛擬電廠供電服務。
Sonnen從家庭蓄電池起家,考量到太陽能發電受限於氣候及日照時間,會有供電不穩的情況發生。為了讓用戶享受低成本的乾淨能源,Sonnen打造出P2P能源交易平台,讓裝設Sonnen蓄電池之用戶彼此之間可以進行儲電交易,打破傳統電廠對用戶的B2C銷電模式。
SonnenCommunity讓缺電戶以低於電網之電價購入綠電,讓餘電戶獲得高於電網收購之收益,加速用戶回收蓄電池裝設之成本,協助用戶達到零成本用電之目標,因此家戶的太陽能發電系統不僅能自用,還可透過能源交易平台創造收入,用戶不必擔心政府取消補貼再生能源發電後,將無法負擔再生能源發電設備之成本。此外,當加入SonnenCommunity的成員越多,越能促進綠電使用效率,形成一個獨立於中央電網的能源自給自足社區。
藉由能源交易平台所累積的服務基礎,Sonnen更進一步地嘗試將儲能系統結合區塊鏈技術,協助中央電網平衡電力供需。2017年11月,Sonnen和歐洲電網營運商Tennet進行歐洲第一個透過區塊鏈技術平衡電網供需試驗計畫,運用IBM的區塊鏈技術及Sonnen家庭儲能系統來穩定供電,讓德國北部過盛的風電可以儲存下來,並且透過南部儲能系統釋放太陽光電,改善北部風電浪費及南部工業區缺電問題。
此服務營運之關鍵在於蓄電池及家電設備的聯網和區塊鏈技術的配合。Sonnen採用Z-Wave通訊標準,讓蓄電池能和家用電器及其他設備之間進行無線控制,了解家電的用電時段,在電網超載時挪出儲電空間或在電量短缺時支援電網電力,並透過區塊鏈技術進行各時段之電力供需紀錄與電價計算,支援大量小額交易,以快速調節中央電網之負載,以較低成本的儲電服務改善電網營運。相較於過往為了要解決風電過剩或供電不足的瓶頸,電網營運商必須和第三方電廠針對風電減產或緊急供電額外簽約,大幅增加營運成本。以Tennet為例,2016年在德國就大約花費8億歐元的成本在平衡電網的供電系統。
此計畫除了降低穩定電網營運之成本,藉助現有的輸電線路和儲電設備,也能協助政府省下興建輸電線路的費用,提升了用戶家庭蓄電池服務的價值。目前試驗計畫正處於測試階段,將在六個月後進行結果評估。此外,為更進一步研究P2P能源交易機制,Sonnen於2018年3月加入NEMoGrid計畫,希望透過區塊鏈技術改善電網對住戶或住戶間的大量小額交易對當地電力成本、當地電網穩定性的影響,以促成分散式能源交易,進一步擴大儲能市場的規模。
台灣電力市場尚未普及需量反應制度,但台電正積極鋪設智慧電表,且台北市公宅也將進行需量反應之試驗,若能及早進入智慧能源管理軟體研發,將用電行為與儲能設備及電廠供電進行整合,所累積的服務經驗及相關能源資料蒐集,日後將成為電力公司及企業爭相合作之對象。
雖然台灣業者在今年已推出首座分散式智慧能源交易市場,然而和歐洲電力市場結構不同,無法直接仿效Sonnen的P2P綠電交易平台。事實上,目前美國市場也未開放民眾之間自由交易電力,因此Sonnen在進入美國市場時也無法直接導入在歐洲的成功模式,而是透過與當地建商合作,將儲能設備整合在新屋內,作為未來向電力公司提供、虛擬電廠服務之基礎設備。
台灣和美國市場相同,不開放民眾自由購電,但可以參考Sonnen進入美國的策略,在翻新舊社區計畫或新建案規劃時,將虛擬電廠概念埋入社區建造,為住戶描繪出永續生活之願景,作為未來尖峰用電短缺時,可彈性調度之電力,解除台灣缺電之困境。
資策會MIC產業分析師甘岱右
首款AI加速平台出鞘 Xilinx全面擁抱人工智慧
人工智慧AI發展全面展開,可編程邏輯廠商美商賽靈思(Xilinx)認為,未來已經沒有一個架構可以滿足所有的應用需求,因此該公司正式踏上轉型之路,舉辦賽靈思開發者大會(XDF),並發表未來幾年的技術與產品重點,全面擁抱人工智慧的發展趨勢,以資料中心(Data Center)為發展策略的起點,目標為打造靈活應變、萬物智慧的世界。
一直以可編程技術為發展重點的Xilinx,2018年3月正式啟動策略轉型工作,宣示該公司從元件廠商轉型為平台廠商,提出自行調適運算加速平台(Adaptive Compute Acceleration Platform, ACAP)發展核心,旋即於10月推出第一款產品Versal。Xilinx總裁暨執行長Victor Peng表示,Versal字面上是由Variety與Universal組合而成,希望在技術與應用上可以兼顧多樣性與通用性。
在AI無所不在的時代,AI應用日新月異,晶片設計週期已經落後創新的速度,因此Peng認為,FPGA彈性的特點可以應用在AI的創新上,一般新晶片設計週期高達24個月,透過ACAP平台的協助,可將AI模型加以拆解,變成數個不同的發展(Develop)、優化(Optimize)、部署(Deploy)流程,該平台動態範圍廣泛彈性,可針對不同的應用調整需要的加速範圍。
Versal ACAP結合純量處理引擎(Scalar Processing Engine)、Arm Cortex-A72與Arm Cortex-R5,以及自行調適硬體引擎(Adaptable Hardware Engine),可動態重新配置,即時加速能力最高達八倍;DSP引擎可提供高準確性浮點運算與低延遲;AI引擎具有高傳輸率、低延遲與高效率,可協助AI推論與高階訊號處理,搭配先進記憶體和介面技術,可提供強大的異質加速能力。不管是軟體開發者、資料科學家或是硬體開發者,只須利用符合業界標準設計流程的工具、軟體、函式庫、IP、中介軟體以及框架,就能針對其硬體與軟體進行編程與最佳化。據了解,Versal採用台積電7奈米FinFET製程,正式量產時間為2019年第二季。
Xilinx也以現有UltraScale+ FPGA為基礎,發表Alveo U200與Alveo U250加速卡,就機器學習而言,Alveo U250的即時推論傳輸率比高階CPU高出20倍,甚至在低於2毫秒的低延遲應用方面,也比高階GPU這類固定功能加速器高出4倍。此外,Alveo加速器卡的延遲較GPU減少3倍,在資料庫搜尋等應用方面大幅加速、並提供較CPU高出90倍的效能。
Xilinx總裁暨執行長Victor Peng表示,FPGA靈活彈性將有助AI創新應用發展。
瑞薩DRP技術實現低功耗即時影像
瑞薩電子近日宣布,目前正透過端點(Endpoint)的智慧化,積極擴展其嵌入式人工智慧型(e-AI)解決方案的範圍,推動AI導入嵌入式系統。全球已有10多個國家約150家公司在進行基於此技術的工具試驗,而e-AI的實際應用案例則已超過30個。為此,瑞薩開發出了RZ/A2M MPU(微處理器),將e-AI解決方案擴展到高階的應用。此新款MPU能提供超越其前代產品RZ/A1十倍的影像處理性能,並採用瑞薩獨有的可動態重配置處理器(Dynamically Reconfigurable Processor, DRP),以實現低功耗的即時影像處理。這讓採用嵌入式元件的應用產品(如智慧型家電、服務機器人、和小型工業機器),能在低功耗的條件下,透過攝像機和其他AI功能來進行影像辨識,並加速智慧型端點的實現。
目前,要在操作技術(Operational Technology, OT)領域中使用AI,會存在著一些挑戰,例如將大量的感測器數據傳送到雲端以供處理的困難性,以及等待雲端回傳AI判斷時的延遲。瑞薩先前所提供的AI單元解決方案,能透過精確分析馬達或機器的振盪波形,來即時偵測出以往無法找到的故障。但為了加速AI在OT領域的應用,瑞薩開發出了配備DRP的RZ/A2M,藉以實現比波形測量和分析更需要大量數據、以及更強大處理性能的影像AI功能。由於可在極低電力消耗的條件下,實現即時影像處理,因此一些由電池供電的設備將得以執行諸如:基於攝影機輸入的即時影像辨識、使用指紋或虹膜掃描的生物辨識認證、以及手持掃描器的高速掃描之類的任務。這解決了雲端應用所面臨的一些問題,例如即時性能的實現、隱私的確保、和安全性的維護等。
Vicor推AI雲端資料中心48V電源方案
Vicor公司副總裁Robert Gendron將在2018年北京開放式資料中心委員會(ODCC)高峰會上發表主題演講。
在《Progression & Evolution of Power Technology within Cloud Data Centers雲端資料中心電源技術的演進與發展》他將介紹人工智慧(AI)在雲端運算領域的發展和人工智慧處理器如何正在將電源需求提升到更高的層級,我們如何不僅能提供各種處理器所需的高耗能電源同時避免限制處理器潛能的發揮,並且提供雲端資料中心電源基礎架構及伺服器機架所需的完整電源解決方案。
Vicor將在展覽會上展出Vicor三相交流至48V直流轉換模組和48V直接到載的AI電源解決方案,和先進的散熱方案,包括液冷和浸泡式液冷等先進散熱技術。
Vicor是電源產品的創新者,這些產品不僅可實現48V配電架構,同時還能實現最高密度及最高效率的電源設計,這對目前已應用於端點運算和雲端運算的先進人工智慧(AI)處理器至關重要。