- Advertisement -
首頁 標籤 RNN

RNN

- Advertisment -

關鍵應用含金量高 手機/汽車AI吸引大廠競折腰

AI新興應用持續推進 自2018年起,在演算法層面,AI已經相對成熟,賽靈思(Xilinx)人工智慧業務高級總監姚頌(圖1)提到,目前應用層面還在不斷進展的是神經結構搜索(Neural Architecture Search, NAS)相關的領域,希望透過電腦自動找到最佳演算法結構、減輕演算法工程師的負擔。MIT的韓松教授推出One-For-All神經網路,可以訓練一個複雜的網路,針對不同場景的需求(高精準度、低延遲等),自動選擇部分子網路來滿足要求。2020年,對於邊緣運算解決方案需求最大的還是手機與汽車,二者共同的特點都是無論網路與通訊狀況如何,都需要AI做出迅速的反應。 圖1 賽靈思人工智慧業務資深總監姚頌 姚頌進一步指出,手機、平板電腦已經從通訊工具,升級為娛樂工具,再升級為邊緣的核心設備。除iPhone全系列產品已經搭配了用於FaceID的結構光相機,需要即時、私密的AI識別之外,最新推出的iPad Pro,還新增了dToF的微型雷射雷達,可以進行高精度測距、實現良好的AR效果,而AR也是AI的一個重要應用場景。另外,2020年在自動/輔助駕駛、智慧車艙已全面採用AI,特別是隨著電動車的推廣,汽車被視為下一個智慧終端裝置。 過去影像辨識與語音辨識通常是各自發展的應用,主要原因是影像採用卷積神經網路(Convolutional Neural Network, CNN),語音使用遞歸神經網路(Recurrent Neural Networks, RNN),然而近期Google公開演示了使用CNN網路進行語音辨識,也開啟了影像與語音辨識複用的可能,NVIDIA技術行銷經理蘇家興(圖2)認為,目前已有應用同時導入兩種辨識技術,讓人機溝通更自然,雖然目前還不是使用同一套網路,但或許不久的將來就會相互整合。 圖2 NVIDIA技術行銷經理蘇家興 手機/汽車AI競爭如神仙打架 手機與汽車是兼具雲端與終端的裝置,一方面需要強大的運算效能,一方面對耗電非常在意,這類產品也被看好具有高度潛力,於是大廠的邊緣應用都投注心力在這兩類產品。姚頌表示,AI晶片除了性能需求足夠出色,更重要的是需要有簡單易用的開發環境、豐富的生態以及滿足使用場景的產品功能。賽靈思2019年推出了全新的軟體發展環境Vitis與Vitis AI,就是旨在協助不同開發者輕鬆地開發AI應用。而針對AI產業的Vitis AI以及Vitis AI Library,可以允許演算法工程師直接在提供的大量案例上二次開發,也可以透過簡單的命令與腳本編寫完成AI演算法的編譯與執行。 在晶片層面,賽靈思推出了新的車規級運算平台XAZU7與XAZU11,可以廣泛用於L2到L3的輔助駕駛與自動駕駛場景,也可以用於智慧車艙的各類應用。到目前為止,Vitis AI已經發布了最新的1.1版本。而賽靈思的自動/輔助駕駛方案也得到戴姆勒、百度等汽車產業認可。 另外,NVIDIA在GTC也公布新一代自駕車平台Orin,將整合具新一代TensorCore之Ampere架構GPU,針對L2的標準可在45W耗電水準下,提供200TOPS性能的版本;針對先進輔助駕駛的Orin ADAS SoC,可在5W功耗提供10TOPS的性能,能夠滿足當前先進輔助駕駛的需求。標準的Orin採用12核Arm Herculus CPU搭配Ampere GPU,記憶體頻寬達200GB/s,與支援四路10Gbps乙太網路,具備170億個電晶體。在L5自動駕駛平台部分,NVIDIA藉由雙Orin搭配兩組Ampere架構GPU組成,功耗800W,但算力可達2,000TOPS。 而在CES 2020,高通發表Snapdragon Ride平台,正式進軍自駕車領域。該平台共有三種不同的配置,其中,單處理器版已經足夠應付ADAS系統;雙ADAS處理器版本,算力則更進一步強化,同時也為系統準備了安全備援,可以支援L2和L3半自動駕駛。第三種配置則在上面的基礎上多了加速晶片,三晶片版本的配置包括兩塊ADAS處理器外加自動駕駛加速器,算力可達400TOPS。 關鍵應用投入大量資源/時間 除了汽車與手機之外,蘇家興表示,智慧醫療、5G等應用也需要高運算力,而由於AI模型發展越來越複雜,在業界希望賦予AI更多能力的前提下,導致資料庫越加龐大,所以在訓練過程中希望可以優化網路,以提升整體系統的效率。 AI晶片在重要裝置如手機、汽車等平台的發展目前由大廠主導,除了含金量高之外,這類平台的應用需要整合許多相關資源,與雲端的網路訓練關係也很密切,如自駕車就需要非常龐大的網路資料庫輔助,目前相關廠商已累積不下數百萬英哩的測試里程,但實際上離自駕車可以安全上路還有很長一段距離;另外,智慧醫療除了資料數量之外,更要求資料品質,而且醫療行為攸關人命,發展過程會更加謹慎。相信未來幾年,人工智慧還會發生更多有趣的事,開創更多可能性,值得市場持續關注。
0

AIoT應用含苞待放 邊緣推論晶片迎來戰國時代

相較於AI雲端訓練領域的蓬勃發展,邊緣推論則像是一片含苞待放的花園,各式各樣爭奇鬥艷的花朵準備盛開,智慧物聯網AIoT應用破碎化,很少有一個應用可以像過去主流應用一樣每年創造數億或10幾億出貨量的產業規模,每個應用的需求又各自不同;不過,業界估算整體AIoT產業的規模至少數十億甚至上百億,邊緣推論晶片未來幾年產業發展潛力十足。 目前人們生活中的絕大部分應用都需要機器學習(Machine Learning, ML)及邊緣運算解決方案,如語音辨識、人臉識別、符號偵測與定位、車牌辨識等。大多數應用場景需要即時的用戶互動與反應,強調能在地處理解決問題,而毋需將數據傳遞到雲端並進行運算,透過邊緣運算可以降低雲端運算的負擔,也可以解決延遲性、安全性和可靠性的問題。 AI聲音/影像應用推陳出新 由於AI演算法與處理器能力持續提升,超高影像解析度(Super Resolution)、準確的物件偵測(Object Detection)、影像分類功能(Images Classification)、快速的語音翻譯功能(Speech Translation)在過去一年獲得大幅進展。Arm首席應用工程師沈綸銘(圖1)提到,AI為使用者帶來更好的使用體驗。例如超高影像解析度能讓使用者掌握影像細節,大幅提升觀賞影片的體驗;Avatars效果能讓使用者在自拍時使用有趣的即時動畫效果;相機的智慧夜拍模式,則讓光源控制更輕鬆,在低光源下拍攝也能媲美日拍一般清晰;此外運用生物辨識技術的臉部辨識與解鎖功能,能讓消費者使用手機付款時更安全更便利。 圖1 Arm首席應用工程師沈綸銘 沈綸銘進一步提到,除了超高影像畫質能提升觀影體驗,AI也能強化整體的聲光環境,例如偵測影視內容所需,調整或放大聲量,或者對應室內光線環境,調校顏色對比與鮮明度;還能為家中有小朋友的家長把關,當偵測到電視前方有小朋友,電視會自動停止播放不適合的影視內容,以上這些功能或多或少都有AI的協助。 觀察AI專用晶片進程,沈綸銘認為,未來產品將朝向分眾市場發展,根據各式需求,像是算力、功耗、軟體大小、軟體開發框架等而有不同的發展趨勢。以嵌入式系統為例,市場上需要在少量功耗增加下提供有效率的運算處理。相對的,以自駕車系統為例,市場上則需要可延展的AI運算加速器,以及通用性的軟體開發。 邊緣推論講算力拼省電 卷積神經網路(Convolutional Neural Network, CNN)是這波人工智慧技術發展的起點之一,也是目前發展成熟度最高的技術,其對影像辨識效果最佳,應用也非常廣泛;過去幾年在指紋辨識領域取得領先地位的神盾(Egis Technology),也將原先的核心技術與AI結合,神盾新技術研發處副總經理林郁軒(圖2)表示,以智慧型手機指紋辨識功能為例,透過邊緣AI的協助,在辨識時毋須喚醒應用處理器也無須聯網,對整個系統的耗電與反應速度大有幫助。 圖2 神盾新技術研發處副總經理林郁軒 神盾從指紋辨識起家,為了優化指紋辨識的效能而導入AI,再從指紋的影像辨識往人臉、行為、動作等各式影像辨識技術發展,林郁軒解釋,邊緣運算尤其是行動終端或AIoT類的產品,除了算力還會比較每瓦的TOPS,導入AI也不能犧牲電源效率,這應該也是未來邊緣推論晶片競爭的重點。以神盾現在的解決方案來看,每瓦約可提供1~2TOPS算力,預計年底將提升到3TOPS,2021年則將推出20TOPS的解決方案。 未來幾年,對於ASIC廠商而言,與客戶深入溝通,將需求明確定義,是非常重要的關鍵,林郁軒認為,這樣才可以透過專用演算法與電路的設計,提高晶片的每瓦TOPS。而在推論的精度上,一般而言精度越低效率越好,所以也有滿多設計會導入可調式精度架構,讓精度與效率可以依應用調整。 AI系統效能為更可靠指標 針對AI算力已經成為效能指標的代名詞,在台灣可以被稱得上是人工智慧「獨角獸」的耐能智慧(Kneron),該公司董事長劉峻誠(圖3)指出,算力就跟CPU的處理速度一樣,只是AI晶片的運算能力,並不能代表整個系統效能,一味追求TOPS或是每瓦TOPS的數字表現,容易陷入迷思。耐能於2019年推出KL520晶片,具備「可重組式人工智慧神經網路技術」,會根據不同任務進行重組,減少運算複雜度,保證在不同的卷積神經網路模型上的使用,無論是模型內核(Kernel)大小的變化、模型規模的變化,還是影像輸入大小的變化,都能保持高效率使用運算(MAC)單元。 圖3 耐能智慧董事長劉峻誠 劉峻誠並提出「Edge AI Net」的概念,透過AI晶片,能夠將生命賦予終端設備,實現去中心化、離線本地處理、主動智慧等目標。一般而言,目前的AI網路如CNN、遞歸神經網路(Recurrent Neural Network, RNN)或長短期記憶(Long Short-term Memory, LSTM)網路,都是由卷積、剪枝(Pruning)與矩陣乘法器組成,耐能的晶片可以因應不同應用需求進行網路重組,所以一款晶片可支援多個不同網路架構,並組成Edge AI Net,讓算力共享,而能達成1TOPS算力,創造3TOPS效率的效果。 2020年下半年耐能計畫推出新款的AI晶片KL720,具備可堆疊式設計,可因應網路效能需求大幅提高算力,也不放棄個別晶片的每瓦TOPS,同時進一步將Edge AI Net概念具體實現,以「Kneo」的名稱推廣其智慧物聯網AIoT概念。從2019年發表KL520開始,已經有數百萬顆晶片的出貨量,未來這些產品都將是一個網路節點,有機會成為AI時代最具影響力的架構。 邊緣推論晶片大發生 在PC與行動通訊時代,最後都只剩少數晶片大廠主導市場,如英特爾(Intel)、AMD與高通(Qualcomm)、聯發科(MTK)。AI目前是百花齊放的時期,會不會延續之前的發展模式還很難研判,但競爭的激烈程度可以想見;恩智浦(NXP)AI晶片專注於邊緣運算晶片和終端產品晶片。恩智浦半導體大中華區業務行銷資深經理黃健洲表示,於邊緣運算和閘道,提供如i.MX處理器和Layerscape處理器並加強NN/ML加速器運作為目標,提供更快的反應時間,而毋需連接到網際網路執行機器學習推論並提高隱私和安全。 除了開發人工智慧晶片外,恩智浦還打算為使用者提供完整的生態系統,建立開發環境,推出邊緣智慧(eIQ)SDK工具,用於收集資料庫和開發工具,建構MCU/MPU的機器學習應用程式,如i.MXRT10xx與i.MX8M Plus應用處理器。 而在行動通訊時代取得重大成功的Arm,同樣積極發展AI解決方案,沈綸銘說,Arm...
0

AI異構運算工作負載有解 HBM/運算加速相得益彰

近年來,異構運算(Heterogeneous Computing)逐漸興起,進而拓展了後摩爾定律時代在加速運算密集型工作負載方面的創新。當前資料中心產業中,普遍採用異構運算進行加速的工作負載種類繁多,包括人工智慧、即時視訊轉碼和基因組分析,而這些僅僅是其中的一部分。FPGA元件則為現代資料中心工作負載提供了靈活應變能力和運算加速能力。 然而,在很長的一段時間內,DDR記憶體架構的演進並不足以跟上運算加速領域的創新步伐。在過去十年中,雖然平行記憶體介面的頻寬性能得到改善,但進展依然緩慢;現在的FPGA支援的最大DDR4資料速率仍然只有2008年DDR3的兩倍左右。相比之下,自2008年以來,FPGA的運算能力卻提高了近八倍,而且隨著配備AI運算單元的元件推出,預計未來兩年內還會有更大的成長空間(圖1)。因此,在資料中心領域,記憶體頻寬與容量將成為眾多運算和記憶體頻寬密集型工作負載發展的主要限制因素。 圖1 FPGA運算性能成長與DDR頻寬提升比較   HBM2提升AI運算效能 HBM(High Bandwidth Memory)是一種高速的系統級封裝(SiP)記憶體技術,它使用垂直互聯的DRAM晶片堆疊和一個寬(1024位元)介面,與採用傳統打線接合封裝的記憶體產品相比,可實現更大的儲存容量和更高的資料頻寬。聯合電子裝置工程委員會(Joint Electron Device Engineering Council, JEDEC)在2013年開始啟用初代HBM標準,2016年1月,第二代HBM2版本成為業界標準(圖2)。 圖2 HBM和2.5D結構 HBM2標準支援4個或8個8Gb DRAM裸晶逐個堆疊在一起,由一個2.5D矽中介層(Interposer)提供支援,該中介層可將記憶體堆疊與底層電路板連接起來。堆疊一些裸晶(通常是記憶體)而不是其他裸晶(通常是處理器)的多晶片封裝被稱為2.5D元件。 可以將多個堆疊整合在同一個封裝中。與傳統的多晶片DRAM產品相比,透過在一個電路板上堆疊多個裸晶並將其堆疊得更緊密,可以大大減少HBM記憶體封裝的占板面積。由於縮短了訊號在設備之間的傳輸距離,HBM技術還可以提高系統性能。此外,較短的傳輸距離可以減少傳輸定量資料所需的能量(圖3)。 圖3 HBM裸晶堆疊技術 HBM具備先進的矽穿孔(Through Silicon Via, TSV)技術、微尺度互聯和突破極限的I/O數量,可以增加記憶體頻寬,與競爭對手相比,在用於繪圖卡的圖形雙數據速率(GDDR)記憶體方面,HBM無疑能提供更高性能。在元件級別,單個三星HBM堆疊可以提供高達307GB/s的資料頻寬,實現比GDDR5晶片快近10倍的資料傳輸速度。而在系統級別,與使用於GDDR的解決方案相比,HBM則能提供近3倍的輸送量,並且能將功耗降低80%,同時還可以節省寶貴的電路空間(圖4)。 圖4 HBM與GDDR頻寬比較 支援HBM的Virtex UltraScale+ FPGA提高了記憶體頻寬,例如,兩個三星HBM2記憶體堆疊可提供高達460GB/s的速度。將一個或兩個HBM2堆疊與各種尺寸的FPGA邏輯和DSP進行配對,為使用者應用選擇較佳的運算能力與記憶體頻寬/容量組合。如賽靈思(Xilinx) Alveo U280網路加速卡基於16nm UltraScale+架構,採用8GB三星HBM2,可為資料庫搜索與分析、機器學習推論及其他記憶體限制應用提供較高等級的加速功能。本文以深度神經網路與資料庫加速方面的研究為例,展示了支援HBM的元件優勢。 加速語言翻譯準確性 各種雲端應用正在提供自動即時語言翻譯服務,這種服務可以使用基於神經網路的機器學習方法在兩種語言之間翻譯語句。編碼器-解碼器架構推動了當今的商業自動化翻譯服務。在使用機器執行翻譯任務時,兩種語言的單詞經由一個稱為單詞嵌入的過程,以高維向量的形式呈現;因此,單詞之間的關係可以通過向量進行量化建模和反映。遞迴神經網路(Recurrent Neural Networks, RNN)、卷積神經網路(Convolution Neural Network, CNN)和基於注意力的模型等結構通常用於執行編碼和解碼功能。 近期研究表明,在語言翻譯中,只有採用基於注意力的網路才能達到業界一流的準確性。研究論文中所描述的注意力機制,即縮放點積注意力,是由兩個矩陣乘法和其他函數(Scale、Mask和Softmax)構成的。多頭注意力結構通常由多個並行的縮放點積注意力與不同的輸入投影構成。該結構與前饋網路共同用於構建整個語言翻譯模型的解碼器和編碼器(圖5)。 圖5 基於注意力的神經網路語言翻譯模型 如圖5所示,基於注意力的語言翻譯模型的主要運算強度來自於對縮放點積注意力和前饋網路的點積計算。這些點積通常被組合到矩陣乘法計算,以實現更高效的運算。然而,與傳統在整個空間中大量重複使用權重參數以減少資料移動痕跡的卷積神經網路不同,這種基於注意力的模型幾乎不重複使用輸入空間參數,導致對矩陣乘法計算的記憶體頻寬要求要高得多。 透過建立一個轉換器分析模型,其是用於語言翻譯的注意力神經網路,並且已經完成了構建與映射以便在UltraScale+元件上實現。FPGA實現方案的架構採用DSP脈動陣列來執行矩陣乘法。中間的啟動資料儲存在晶片的URAM中,可以消除啟動造成處理器和晶片外記憶體之間的資料移動。HBM或DDR用於儲存所有嵌入字典的單詞嵌入與權重參數。 針對具有不同句子長度(L)和句子數量的英德翻譯任務,也稱為批次處理大小(B),對其進行分析就可以瞭解附加DDR的元件和支援HBM的元件的時間延遲(Time...
0

傳統SoC效能有瓶頸 MPSoC驅動AI多元應用

放眼未來,在面對更先進的神經網路時,能隨時進行調整的靈活性是我們關注的焦點。現今廣受歡迎的CNN正加速被新型的先進架構所取代。然而,傳統系統單晶片(SoC)的設計必須要使用當前的神經網路架構知識,而且從開發到部署通常需花費約三年的時間,像RNN或膠囊網路(Capsule Network)等新型神經網路,可能會使傳統SoC變得低效,且難以提供保持競爭力所需的效能。 因此,若嵌入式AI要滿足終端使用者的期望,特別是要跟上可預見未來裡不斷提升的需求,就必須採用更加靈活的自我調適運算平台。我們利用使用者可配置的多重處理系統晶片(MPSoC)元件,整合主應用處理器和可擴展的可編程邏輯結構,其包含可配置的記憶體架構與滿足可變精度推論所需的訊號處理技術,來滿足上述需求。 推論精度最佳化提升效能 在傳統的SoC中,決定效能特性的因素如記憶體架構和運算精度是固定的,透過核心CPU定義,最小值通常為8位元,即使針對特定的演算法最佳精度可能更低。而MPSoC因能夠支援可編程邏輯最佳化至電晶體層面,因此能根據需求讓推論精度降低至最低1位元。此外,這類元件還包含成千上萬可配置的DSP分割(Slice),能高效處理乘法累加(MAC)運算。 當能自由地最佳化推論精度時,就能根據平方定律提供剛好滿足需求的運算效率。也就是說,單一位元的運算當用1位元核心執行時,相對於用8位元核心完成時,所需的邏輯僅為1/64。此外,MPSoC能讓推論精度針對每層神經網路做出不同最佳化,進而以最大的效率提供所需的效能。 MPSoC晶載記憶體提升4倍 除了透過改變推論精度來提高運算效率之外,配置可編程晶載記憶體的頻寬和結構,能進一步提高嵌入式AI的效能和效率。當運行相同推論引擎時,客制化的MPSoC與傳統運算平台相比,晶載記憶體可能達到4倍以上,而記憶體介面頻寬可能達到6倍。記憶體的可配置性能幫助使用者降低瓶頸,並最佳化晶片資源的利用率。此外,典型的子系統僅具備有限的晶載整合快取記憶體,因此必須與外接儲存裝置頻繁互動,導致延遲與功耗的增加。在MPSoC中,大多數記憶體交換都在晶片上進行,因此可以大幅提高速度,且能省下超過99%因與外接記憶體互動所產生的功耗。 解決方案的尺寸大小也越來越重要,特別對採用行動AI的無人機、機器人或無人/自動駕駛汽車而言更是如此。在MPSoC的FPGA結構上運行的推論引擎可以僅占用傳統SoC八分之一的晶片面積,這能讓開發者在更小的元件中建構功能更強大的引擎。 此外,MPSoC元件系列為設計人員提供豐富選擇來建置推論引擎,能支援最節能、成本效率最高、面積占用最小的方案,進而滿足系統效能需求。一些通過汽車應用認證的零件具備硬體功能安全特性,達到業界標準的ISO 26262 ASIL-C安全規範,這對自動駕駛應用而言至關重要。例如賽靈思的Automotive XA Zynq UltraScale+系列採用64位元四核Arm Cortex-A53和雙核Arm Cortex-R5處理系統(圖1),以及可擴展的可編程邏輯結構,因此就能在單個晶片上整合控制處理、機器學習演算法和安全電路,同時具備故障容錯能力。 圖1 賽靈思的Automotive XA Zynq UltraScale+系列符合ISO 26262 ASIL-C安全規範。 現今嵌入式推論引擎可建置於單個MPSoC元件內,且功耗低至2瓦,這對行動機器人或自動駕駛汽車而言都是合適的功耗水準。傳統運算平台即便現在也無法以這麼低的功耗運行即時CNN應用,未來也不太可能在更嚴格的功耗限制條件下,滿足更快回應和更複雜功能的需求。採用可編程MPSoC的平台能夠提供更高的運算效能、更高的效率,並在15瓦以上的功率水準下減少面積和減輕重量。 若開發者不能在其專案中輕鬆應用這些優勢,那麼這些可配置型多平行運算架構的好處就僅限於學術領域。因此,若想要成功應用,需要有適當的工具來協助開發者最佳化其目標推論引擎的建置。為了滿足相關需求,賽靈思不斷擴展其開發工具和機器學習軟體堆疊的生態系統,並與專業夥伴合作,一起簡化與加速電腦視覺和視訊監控等應用的建置。 藉由SoC的可配置性能為目前應用創建最佳平台,也讓AI開發者能夠靈活地跟上神經網路架構快速發展演進的需求。業界遷移至新型神經網路的可能性,對於平台開發者來說是一個巨大的風險。然而,可重配置的MPSoC透過重配置能力,以及當前最先進的策略來建構最高效的處理引擎,能讓開發人員靈活地回應神經網路架構方式的變化。 工業控制、醫療設備、安全系統、機器人和自動駕駛汽車等越來越多的設備內已嵌入AI,利用可編程邏輯結構的MPSoC元件所具備的自行調適加速技術,是保持快速反應、高階功能及維持競爭力所需的關鍵。 (本文作者為賽靈思策略市場開發總監)
0

3D感測/機器視覺強強聯手 AI升級智慧製造商機無限

AI人工智慧讓智慧製造能力再上一層樓,而應用已久的機器視覺,亦從成熟的光學檢測AOI,蛻變為內含深度學習(Deep Learning)技術的電腦視覺,搖身一變成為智慧製造的核心技術,影像與視訊內容的自動擷取、處理、分析與應用更加迅速、普遍與成熟。這樣的轉變不僅展現在生產效率的提升上,更可以進一步精簡人力成本,未來AI系統甚至可以針對機台的問題進行自我檢測,分析問題與成因,然而這僅僅是十八般武藝的開端。 近來,許多新興技術發展並與機器視覺結合,進一步擴大了其功能與應用範疇,3D感測技術包括飛時測距(Time of Flight, ToF)、立體雙目視覺(Stereo Vision)、結構光(Structured Light)等技術可以建立三維感測資訊,尤其測距應用的延伸,將使電腦視覺的功力不斷提升,本活動介紹機器視覺技術架構與應用最新動態,加上多個感測技術的加持,並剖析其與AI結合的發展與應用趨勢。 機器視覺助智慧製造一臂之力 而製造業從工業4.0口號被打響以來,製造系統從自動化進入智慧化的另一個全新的發展境界,機器視覺(Machine Vision)/電腦視覺(Computer Vision)就是達成此目標非常關鍵的技術。倢恩科技研發部經理邱威堯(圖1)提到,導入機器視覺可以使傳統製造業產線的生產方法更具彈性與可變性,並改善作業人員工作環境,遠離危險惡劣的工作流程。使用機器視覺的生產線,讓產品從人工檢測進步到自動品質管理,可增進品管重現性/一致性,以達成高度品質管制,降低人員因疲勞或情緒不佳誤判所造成的損失,同時讓檢測數據數值化,自動產生統計報表以便於管理與決策分析。 圖1 倢恩科技研發部經理邱威堯提到,導入機器視覺可以使傳統製造業產線的生產方法更具彈性與可變性,並改善作業人員工作環境。 機器視覺的基本要點包括:檢測(Inspection)、物件識別(Object Recognition)、量測(Gauging)、機器導引與定位(Machine Guiding and Positioning)。 檢測Inspection 利用機器視覺技術自動檢驗製程中工業產品之瑕疵,例如印刷電路板上的線路是否短路、斷路,半導體晶圓之表面缺陷及LCD面板之缺陷等。 物件識別Object Recognition 用於確認物件的身分,例如車牌辨識、條碼辨識、IC元件之光學字元辨識(OCR)及鍵盤檢視、人臉辨識、指紋辨識、瑕疵分類等。 量測Gauging 以機器視覺技術進行非接觸式的量測,例如工件之尺寸、夾角、真圓度及印刷電路板之線寬等。 機器導引與定位Machine Guiding and Positioning 利用機器視覺引導自動化機器之路徑,例如引導銲接機器人之銲道,無人搬運車之行進軌跡;亦可用於決定目標物位置,如SMT、PCB自動裝配作業的定位與機器人的行走路徑等。 機器視覺影像處理要點 進入作業程序後,機器視覺系統針對擷取到的影像進行處理則是另外一個重點,邱威堯進一步說明,影像強化、影像分割、影像編碼、影像還原等為主要的技術。影像強化是使處理過的影像比原始影像更適合於某一特殊應用,方式包括空間域(Spatial Domain)與頻率域(Frequency Domain)。影像分割則是凸顯出影像中感興趣的部分。 影像編碼就是使用較少的位元來顯示一幅影像,壓縮是最常見的方法。影像還原則是改善或重建一幅遭到破壞的影像,邱威堯說,影像還原技術通常需要大量運算時間,且還原後的效果不見得可以接受,建議由取像環境、設備與技術來改善影像的品質。 機器視覺硬體選擇無唯一解 在機器視覺硬體部分,主要由打光、鏡頭與相機組成。邱威堯指出,打光是機器視覺中非常困難的一部分,需要許多直覺與實驗,而打光技術也無通則,但對於特定應用場合已有經驗可循,而打光的方法是根據待測物的光學特性來決定,打光的目的則包括,取得與強化待測物中有興趣之特徵,使前景與背景明顯不同,強化訊噪比,以得到更高品質的影像,凍結移動中物體的運動並去除鏡反射(Specular Refection)等。 而打光的方式則分為正向打光、背向打光與結構打光。並可再進一步細分為擴散式正向打光、直向式正向打光、低角度斜向打光、同軸打光、擴散式背向打光、遮背式背向打光等多種,端視需要的效果而定。光源部分則以人工光源最常用,種類包括白熾燈的鎢絲燈泡、鹵素燈;放電燈的螢光燈、水銀燈、高壓鈉氣燈、複金屬燈、氙氣燈;固態光源的LED與固體雷射。其中,近年在實務應用上LED燈儼然已是主流。 另一個重點就是鏡頭,邱威堯強調,這部分的選擇同樣沒有最佳解,端視需求與使用者掌握的資源而定,選擇的要素包括視野、焦距、工作距離、相機底座、相機格式(感光元件尺寸)、景深、光圈值、相機型式等。以景深為例,其代表聚焦清晰的範圍,長景深表示聚焦清楚範圍大,短景深表示聚焦清楚範圍小,一般景深可以透過縮小鏡頭光圈來增加,但是照明的亮度也要相對提升,原則上要避免出現短景深的情況,以追求長景深為目標。 3D感測加值機器視覺 3D感測技術並不是全新的技術,由於iPhone X的人臉辨識解鎖應用,讓市場大為驚艷,帶動的發展熱潮逐漸滲透到不同領域。目前主要技術為立體雙目視覺、結構光與飛時測距,艾邁斯半導體(ams)資深應用工程師湯治邦(圖2)表示,這三個技術都需要搭配光源,現階段主流光源是垂直腔體表面雷射(VCSEL),並使用不可見的紅外光,波長850nm與940nm為主,因有極少部分人可看見850nm的紅外光,所以近年940nm使用比例逐漸提升。 圖2 艾邁斯半導體資深應用工程師湯治邦表示,飛時測距、立體雙目視覺、結構光技術特性有些差異,造成不同應用與需求各有優勢。 發光源的部分,除了熱門的VCSEL之外,LED與邊射型雷射(Edge Emitters Laser, EEL)都是常見的光源,以技術特性來深入比較,湯治邦指出,VCSEL雷射光的光線集中,LED則呈現散射方式,因此VCSEL波長範圍穩定,可產生波長最精準的光線,操作溫度最高可達200℃,溫度特性比LED與EEL優異,製造成本與半導體製程的簡易度也有相對優勢,是該技術受到高度注目的原因。 此外,主流的三個3D感測技術,技術特性有些許差異,造成不同應用與需求下各有優勢,立體雙目是由兩個攝影機分別擷取影像,理論與人眼相似,透過三角函數可以測知物體的深度,與其他兩個技術相較由於感測元件技術成熟成本較低,但模組體積較大、耗電量較高,也易受環境變化影響,如天候昏暗就會影響感測品質與準確性。 因為iPhone...
0
- Advertisement -
- Advertisement -

最新文章

- Advertisement -

熱門文章

- Advertisement -

編輯推薦

- Advertisement -