熱門新聞
- Advertisement -
智慧音箱開疆拓土 遠傳力闢物聯網市場版圖
在亞馬遜(Amazon)推出Echo之後,帶動全球智慧音箱及人工智慧(AI)語音助理的熱潮,不僅Google、Apple或音響品牌業者相繼投入智慧音箱產品外,隨著物聯網(IoT)商機蓬勃發展,電信業者也開始切入智慧音箱市場,推出相關產品與服務。例如遠傳電信便於近期發布兩款全新攜帶式智慧音箱「小愛講」和「小狐狸」,此一布局不僅是看好智慧音箱具備智慧家庭服務中樞的潛力,也希望能藉此拓展物聯網市場版圖,搶占市場先機。
根據研調機構Deloitte指出,智慧音箱市場於2019年市場價值將達到70億美元,較2018年的43億美元,年成長率達63%,成為歷史上成長最快的網際網路裝置類別;而預估2019年智慧音箱銷售量將可以達到1.64億台。
對此,遠傳個人用戶事業群數位服務處副總經理陳萍坽表示,遠傳未來將以「大人物」為企業發展主軸,深耕大數據、人工智慧、物聯網三大關鍵領域,而智慧音箱可說是遠傳布局這三大領域的先鋒,因智慧音箱不僅能為消費者創造良好的人機互動體驗,同時未來還有望成為各式聯網產品的控制中樞。
陳萍坽進一步說明,對於電信業者而言,智慧音箱可說是不能缺席的市場。遠傳推出「小愛講」和「小狐狸」,不只是瞄準智慧音箱商機,而是希望能藉此深耕物聯網市場。未來物聯網裝置勢將遍地開花,像是智慧家庭中的洗衣機、電視機等家電用品都將有聯網功能;而智慧音箱的語音控制功能有望成為各種聯網裝置控制中樞,提供各種創新應用服務。因此,該公司便積極布局,期能透過智慧音箱搶占物聯網先機,再進而深耕智慧聯網市場。
據悉,遠傳所推出的兩款「小愛講」和「小狐狸」智慧音箱,目前已可實現部分智慧家庭應用,控制家電產品如EQL智能小管家、智慧燈泡、智慧插座等;同時也具備資訊快查(如天氣、股票、匯率換算等)、生活幫手(設鬧鐘、查時間、家庭留言等),以及娛樂音訊播放(音樂、新聞、有聲書等)。
工業相機內建GPU AI正式走上生產第一線
直接在邊緣裝置上進行模型推論(Inference),是人工智慧(AI)走向產業應用的必然趨勢,且隨著半導體元件技術不斷精進,推論發生的地點將會越來越貼近生產的第一線。凌華與GPU大廠NVIDIA合作,正式推出全球第一款內建GPU,可以直接執行推論的工業相機NEON-J,就是AI從雲端走向邊緣的最佳註腳。
凌華科技資深產品經理許凱翔指出,機器學習對機器視覺技術的應用拓展,能做出非常大的貢獻。在過去,機器視覺軟體是以預先設定的規則為基礎,工程師在開發軟體時,必須用演算法把想要偵測的影像特徵,例如瑕疵的特徵詳實描述清楚,系統判斷的準確率才會高。
但在實際應用上,這種方法常會遇到困難,例如待測物本身就帶有某些圖樣(Pattern)時,當瑕疵跟背景圖樣混在一起,系統要精準辨識出瑕疵的難度就很高。這種情況在電子業其實很常見,例如TFT-LCD面板、太陽能電池片(Solar Cell),本身就是有圖樣的產品,要用現有的機器視覺去抓出這類產品的瑕疵,是很大的挑戰。
對機器學習來說,圖樣辨識正是它最擅長的工作。因此,基於機器學習的機器視覺系統,只要圖像處理、判斷的速度夠快,就能為機器視覺技術的應用打開很多新的可能性。這也是凌華跟NVIDIA合作,率先推出整合Jetson TX-2嵌入式GPU的NEON-J工業相機的原因。當推論可以直接在工業相機上執行,不必仰賴雲端,不僅可以省下可觀的網路流量,網路延遲的問題也一併解決了。
不過,由於Jetson-TX2是專為嵌入式應用設計的低功耗GPU,其運算能力無法跟桌上型電腦、伺服器使用的GPU相提並論,因此目前NEON-J不能執行太複雜的機器學習模型,否則會來不及對影像做出即時判斷。
即便NEON-J目前還無法執行太複雜的模型推論,但其基於機器學習的特性,已經成功為機器視覺打開新的應用市場。舉例來說,食品業的產品分類/分級應用,就很適合用NEON-J來執行。像是肉品分切作業,要依照肉品的油花分布狀況來判斷肉品等級,或是肉品出於哪個部位,就要靠圖像識別來實現,傳統基於規則的機器視覺軟體很難處理這種問題。
另一個應用案例是冷凍披薩工廠的品管。披薩廠商在產品包裝前,要先檢查披薩上的餡料數量、狀態做出檢查,才能避免NG的產品賣到消費者手上。從機器視覺的角度,這是一個典型的圖樣辨識問題,例如鳳梨、香腸的片數是否符合標準,有沒有破損,就得靠圖樣識別來做。因為披薩上的鳳梨、香腸切片可能有大有小,傳統的機器視覺分析軟體遇到這種待測物,容易出現誤判。
總結來說,對機器視覺應用來說,機器學習是一個很值得期待的互補型技術。以規則為基礎的分析軟體,在量測物件尺寸、辨識QR Code、條碼,以及引導機器手臂在2維平面上運作,是很有效率的,可靠度也高。但如果是要處理跟圖樣有關的問題,機器學習是比較理想的解決方法。
大廠CES齊秀新品 8K LCD/可捲曲OLED電視亮相
在2019年美國消費性電子展(CES 2019)中,不僅5G、人工智慧(AI)、自駕車為重要亮點,各大廠商也藉此機會大秀旗下顯示器技術的最近進展。其中,液晶(LCD)電視產品已開始強打8K高解析度與HDR高對比效果;OLED 4K電視也往更大尺寸、更輕薄發展,除此之外,更看到了可以捲曲收納的OLED電視。而MicroLED與MiniLED技術,大廠也各有技術突破。
友達光電於CES 2019展出眾多新品,其中包含85吋8K4K全平面無邊框ALCD液晶電視面板、搭載AHVA技術反應速度最快的電競監視器面板、具備HDR高動態範圍的MiniLED背光電競筆電面板、超低功耗LTPS筆電面板,以及採用全貼合技術的超高解析駕駛艙顯示器。其中,4K電競筆電面板採用MiniLED背光技術達到240調光分區數(Dimming Zones),最高亮度超過1,000nits,符合VESA DisplayHDR規範的最高等級。
此外,友達也同時宣布結盟全球知名家電品牌業者創立8K協會(8K Association, 8KA),致力推動8K生態體系的建構。友達長期投入尖端顯示技術的開發,並率先量產85吋8K4K ALCD液晶電視面板。因應超高畫質電視時代來臨及搶搭2020年東京奧運的8K解析度轉播商機,友達與三星電子、海信、TCL、Panasonic等家電巨擘聯手成立業界首家8K協會,期以透過密切結盟合作,制定適用於全球的8K顯示技術標準,以加速其技術導入及生態鏈整體發展,為全球各地觀賞者帶來最佳視覺效果和體驗。
在該展期間,Sony也發表了自家首款最新的8K HDR液晶電視BRAVIA MASTER系列的Z9G,二款產品採用85吋與98吋超大尺寸。另外,Sony亦發表了旗下的OLED電視A9G,該產品則有55吋、65吋與77吋三種規格;並且比Sony先前推出的OLED更為輕薄。
另一方面,三星(Samsung)在CES 2018展示過146吋的MicroLED顯示器The Wall之後,在2019年,三星更是取得了相當的技術突破。在CES 2019展會上,三星展出了75吋模組化MicroLED顯示器以及219吋的The Wall。其中,由於其間距技術有所突破,因此該75吋MicroLED顯示器能夠達到4K高畫質顯示效果。三星影像顯示部門總裁Jonghee Han表示,模組化的MicroLED設計能讓顯示擺脫尺寸的侷限,未來期待能夠透過MicroLED無邊界、可拼接的特性,實現顯示器的無限可能。
在2018年樂金(LG)便已透露準備打造可捲曲收納的OLED電視,在CES 2019展會中,LG不負眾望展出了Signature OLED TV R產品。該顯示器具備4K解析度,在全展開時尺寸可達65吋,並且可以有五種不同的螢幕展開尺寸,以因應不同的室內環境應用需求。除了全展開可以作為電視觀賞之外,也可以小部分展開螢幕,作為提供時間、天氣、燈光調節資訊的顯示器。
搶攻ADAS商機 光寶CES大秀車電應用新品
光寶積極搶攻先進駕駛輔助系統(ADAS)市場,並於2019美國消費性電子展(CES),以「智慧移動:互聯革命(Smart Mobility:The Connectivity Revolution)」主題參展,在「車電應用」展區大秀旗下產品,像是結合深度學習的汽車攝影鏡頭、擴增實境抬頭顯示器、車聯網技術等。
光寶科技汽車電子事業部總經理王明仁表示,光寶自2006年投入車用攝影鏡頭產品以來,透過堅強的光學設計團隊與車用鏡頭供應夥伴,發揮「1加1大於2」的加乘效應,共同開發出駕駛偵測攝像頭的專用鏡頭;並且掌握駕駛偵測、手勢辨識所需相關技術,像是IR LED、垂直共振腔面射雷射(VCSEL)等。此外,該公司也熟悉車用攝影鏡頭相關應用與驗證需求,透過模組化設計,產品均符合全球品牌客戶要求,縮短開發週期,進而提供高品質、高信賴度的車用影鏡頭產品。
據悉,在製造流程上,光寶科技透過自動化生產線,導入生產組裝與全自動化六軸調焦(Active Alignment(AA)/ End-of-Line)測試機台,以確保駕駛偵測與手勢辨識攝影鏡頭的品質。同時,光寶也將汽車攝影鏡頭結合深度學習技術,能作為自動駕駛及駕駛監視系統(Driver Monitoring System)應用,包括臉部檢測、頭部姿勢追蹤、分心與睏倦檢測,還有情緒讀取,判斷駕駛人是否在最佳駕駛狀態。
除了車用攝影鏡頭之外,因應ADAS市場,光寶也投入研發抬頭顯示器。光寶智慧汽車應用事業部總經理廖正堯指出,汽車光碟機需求消長,轉型腳步走向抬頭顯示器,結合ADAS、車聯網技術,在娛樂功能外,也化身駕駛人的行車資料庫。未來該公司將結合AR技術,研發新一代AR HUD,並積極導入全球知名車廠。
另外,針對行車資料傳輸所需的車聯網(V2X)技術,光寶科技車聯網應用事業總監安志東則透露,該公司旗下的車載T-Box(Telematics Box)、智慧鯊魚鰭天線能與符合當地規範的平台連接,透過OBU車機模組與鯊魚鰭射頻整合天線等技術,提升車載安全警示、即時路況傳遞效能,滿足新世代車載資通訊(Telematics)系統需求。
Wi-Fi 6勢在必行 認證計畫2019 Q3上線
在CES 2019期間,Wi-Fi 6帶來了相當的討論聲量,近日Wi-Fi聯盟也宣布Wi-Fi 6相關認證計畫將在2019年第三季上線。可以想見,在認證計畫上路之後,勢必也將帶動終端產品的導入速度,Wi-Fi 6的時代已然來臨。
Wi-Fi聯盟行銷總監Kevin Robinson表示,Wi-Fi 6支援了大量的新功能,這為互通性、互操作性(Interoperability)帶來新的挑戰。正因如此,相關的認證計畫內容,也將隨著互通性、互操作性的重要性提升,而出現許多新挑戰。
Wi-Fi 6採用許多進階版本的MU-MIMO技術,也就是允許一次傳輸更多的資料。Robinson說明,Wi-Fi資料傳輸的過程就像是一列車隊的運行,以往車隊的目的地相同,但現在不僅是增加了車隊中卡車的數量,而且要允許卡車個別前往不同的目的地。也就是說,Wi-Fi 5的MU-MIMO就像是一輛具有四輛卡車的車隊,它們可以同時將數據並行移動到多個客戶端;但是Wi-Fi 6不僅將使得車輛數增加一倍,並且這八輛卡車可以透過不同路徑傳送給不同客戶端,這將能夠大幅增加網路的整體吞吐量。
Wi-Fi 6能有效提升2.4GHz和5GHz頻段的效能,此外,也能提高電源效率。除此之外,聯邦通訊委員會(FCC)也正在考慮將6GHz頻段納入,以因應更多免執照頻段(Unlicensed Band)需求所用。Robinson認為,業界相當期待Wi-Fi 6能夠納入6GHz頻段,IEEE也已經開始針對此需求展開工作。
市場研究單位ABI預期,到了2022年,Wi-Fi 6晶片組產量將超過10億。市場研究單位IDC也預測,到了2019年中旬,就能看到Wi-Fi 6產品開始展示;在2020年,才能看到大量產品出現在市場上。當然,一旦認證計畫開始啟動,滿足設備的互操作性需求以及安全標準立定後,勢必將加快普及速度。
心率/呼吸/血氧偵測三合一 新款健康監測貼片問世
愛美科(imec)與荷蘭應用科學研究機構TNO在國際消費性電子展(CES)期間聯合發表一款新型健康監測貼片,該貼片具備心率、呼吸與血氧濃度監測功能,且所有電子電路均包覆在柔軟、不會刺激皮膚的材料中,外觀令人聯想到處理小傷口用的ok蹦。這款新型健康貼片由兩家研究機構在荷蘭埃因霍溫共同設立Holst Center開發完成,除了舒適之外,該貼片的電池續航力可長達7天,這在此類設備中也是前所未見的。另外,由於製造成本比前幾代產品大幅降低,因此這款貼片的定位是拋棄式產品,不必重複使用,對講求衛生的醫療產業而言,是十分理想的患者監護方案。
愛美科聯網健康解決方案系統架構師Bernard Grundlehner表示,與前幾代健康貼片相比,最新款健康貼片最大的改良在於增加了血氧濃度監測功能,並導入愛美科自行研發的MUSEIC V3系統單晶片,使得系統功耗明顯降低,而且成本變得十分低廉,可以當作拋棄式產品來使用。TNO印刷電子專案總監Jeroen van den Brand則補充,該貼片的基板材料是非常薄而且有伸展性的TPU材料,電路功能則是用印刷電路技術印在基板上,並整合了乾式電極,可以在人體和貼片之間建立起穩定的電子連結,從而實現感測功能。
目前市面上的健康監測貼片,電池續航力通常只有3~4天,但愛美科與TNO聯手開發出來的新一代貼片,電池續航力可以超過7天。對病患來說,這意味著上醫院更換新貼片的頻率可大幅降低,且透過聯網技術,醫療人員可以遠端監控病患的重要生命特徵。此外,目前的健康貼片無法直接量測血氧濃度,必須在病患的指尖上連接額外的設備才能量到相關數據,但對於病患的日常生活來說,這種量測方式會造成很大的干擾。因此,愛美科發展出新的量測技術,藉由反射式光體積變化描記圖法(Reflective Photoplethysmography),當貼片貼在胸口上時,可以取得血氧飽和度的讀數。這是目前的貼片無法做到的量測功能。
將AI引入MCU ST神經網路開發工具箱亮相
人工智慧(AI)應用無所不在,為因應龐大商機,除了處理器、數位訊號處理器(DSP)、繪圖晶片業者皆開始強化對神經網路(NN)、機器學習或深度學習等演算法支援之外,微控制器(MCU)供應商也來分一杯羹,期能讓MCU也能具備基本的AI運算能力。例如意法半導體(ST)近日便擴展旗下STM32微控制器開發生態系統「STM32CubeMX」,增加AI功能,使STM32CubeMX軟體工具擴展包「STM32Cube.AI」可生成優化代碼,在STM32微控制器上運行神經網路。
意法半導體微控制器和數位積體電路產品部總裁Claude Dardanne表示,AI技術使用經過訓練的人工神經網路對運動和振動感測器、環境感測器、麥克風和圖像感測器的資料訊號進行分類,比傳統的手工訊號處理方法更加快速、高效。該公司所推出的新型神經網路開發工具箱,正在將AI引入基於微控制器的智慧邊緣和節點設備,以及物聯網、智慧樓宇、工業和醫療應用中的嵌入式設備。
據悉,該工具支持Caffe、Keras(帶有TensorFlow後台)、Lasagne、ConvnetJS框架和Keil、IAR、System Workbench等IDE開發環境。
開發人員可以用STM32Cube.AI將預先訓練的神經網路轉成可在STM32 微控制器上運行的C代碼,調用經過優化的函式程式庫;而STM32Cube.AI附帶即用型軟體功能包「FP-AI-SENSING1」,提供支援基於神經網路的端到端運動(人類活動識別)和音訊(音訊場景分類)應用代碼示例。該功能包利用ST的SensorTile參考板在訓練之前捕獲和標記感測器資料,然後,電路板運行優化神經網路的推論,也可在ST BLE Sensor mobile app移動應用程式上立即使用這些代碼示例。
ST指出,在2019年1月8~12日,於美國拉斯維加斯所舉辦的世界消費電子展(CES)期間,該公司將會使用STM32微控制器展示STM32Cube.AI開發應用程式;而未來ST合作夥伴計畫和STM32 AI/ML社區的合作夥伴也會為開發者提供支援服務。
Intel CES展示新技術 Foveros 3D封裝新品亮眼
英特爾(Intel)近日發布了多項關於PC和新裝置的訊息,其中包括人工智慧(AI)、5G和自動駕駛等多個快速成長的應用領域;也討論了資料中心、雲端服務、網路和邊緣運算等領域在實現新的用戶體驗和未來產品外型設計上所需要的創新。 其中,也發表了採用Foveros 3D封裝科技的最新平台Lakefield,並預計將在今年投產。
英特爾客戶運算事業群資深副總裁 Gregory Bryant 認為,下一個運算時代所要求的創新將達到完全不一樣的水平,將涵蓋整個生態系統並涵蓋各個面向領域之運算,英特爾也要求自己達成比這樣更高的目標。
英特爾展示了最新且具備先進AI和記憶體功能的Intel Xeon可擴充處理器產品,以及第9代Intel Core桌上型電腦產品。也討論了可用於PC、伺服器和5G無線存取基地台的新10奈米產品,該產品奠基於3D封裝技術(Foveros)。
英特爾於2018年底首次宣布開發出3D堆疊封裝技術Foveros,是採10奈米製程的低功耗運算元件。在CES展會上,英特爾也首度展示了一個代號為Lakefield的新客戶端平台,此平台首度採用了Foveros 3D封裝科技。這種混合式的CPU架構能夠將過往必需各自獨立的不同IP元件整合在一個佔用較少主機板空間的單一產品當中,從而使OEM廠商能夠更具彈性地實現輕薄的外型設計。Lakefield預計將於今年投產。
英特爾也強調,當科技在整個運算範疇中能夠發揮相輔相成的效果時,能夠帶來什麼樣的成果則更為重要。因此,英特爾亦與各大廠積極展開合作。例如,Comcast和英特爾正在共同合作,希望能將連網家庭化為現實。另外,與阿里巴巴合作的新計畫,也展示了英特爾的人工智慧科技將如何在東京奧運期間提供運動員監測應用。與Mobileye和Ordnance Survey的合作,則將致力於實現智慧城市和提升行路安全的理想。
ML提升機器視覺應用彈性 SI業務發展路更寬
機器視覺在製造業應用存在已久,但過去的機器視覺本質上是以規則為基礎的專家系統(Rule-based Expert System),不具備自主學習的能力,能處理的問題範疇也較為專一。這也使得機器視覺的系統整合商(SI)規模普遍不大,但在特定領域有非常深厚的技術累積。以機器學習(ML)為基礎的機器視覺系統,則可能改變這個產業風貌,讓SI更容易跨入不同領域。
研華網路暨通訊事業群資深協理林俊杰指出,機器視覺在製造業應用已經有相當長的一段歷史,且隨著檢測對象不同,分化出許多次領域,例如針對電子元件、電路板的自動化光學檢測(AOI)、針對產品組裝的視覺校準/對位,乃至成品/半成品的外觀瑕疵檢測等,都可以歸類於機器視覺的範疇。但現有機器視覺系統的核心,多半是以規則為基礎的軟體程式,當工業相機拍攝到過去從未見過的影像,取得的特徵值無法對應回既有的軟體系統時,就會很容易出現誤判或無法識別。
這使得機器視覺系統的設計規畫跟布署,變成一項非常仰賴專家的工作。唯有針對某一類應用有深入研究,並且累積了大量經驗的SI,才能寫出符合生產線需求機器視覺軟體。而且,某個特定領域的專家,要跨到其他機器視覺的領域,也不是那麼容易的事情。
基於機器學習(ML)的機器視覺,則是完全不同的典範。一套辨識模型或演算法,經過不同的資料集訓練,就可以辨識出不同型態的圖樣,而且隨著工業相機取得的影像資料越多,累積的訓練資料增加,系統辨識的準確度還有機會進一步改善。
另一方面,對機器視覺SI業者而言,基於ML的視覺系統還有更容易跨領域應用的優勢。例如一個經過訓練的免洗杯辨識演算法,只要稍加調整跟再訓練,就可以用來辨識不同種類的杯子,例如玻璃杯、馬克杯,因為這些杯子都有一些共通的特徵值。如果是傳統的機器視覺軟體,開發過程就得從頭來過。
不過,對大多數基於機器學習的系統來說,訓練資料的數量跟品質,還是許多開發者所面臨的最大難題,基於機器學習的機器視覺也不例外。現在許多網路大廠都已經提供雲端訓練工具,因此,開發者要訓練自己的模型,門檻已經比以往大為降低,但要取得足夠且高品質的訓練資料集,還是要投入很多資源。
近幾年中國掀起人工智慧熱潮,也促成一個新的行業--資料標籤公司誕生,但這些專門提供資料標籤建置的服務業者,通常沒有足夠的能力處理工業製程中所拍攝的影像。舉例來說,金屬加工件的邊緣出現毛邊,但程度要多嚴重才應該被判定不良品,就只有那個行業的老師傅能準確判斷,不在該行業的標籤建置人員很難做好這項工作。因此,即便是採用機器學習技術,SI想要跨到新的領域,還是有一定門檻要跨過。
此外,目前機器學習最理想的開發平台是GPU,因為GPU有最好的軟體適應性,設計迭代最方便,但如果是要布署到生產現場,GPU可能就不是那麼理想,因為GPU的功耗較高,有時還是需要搭配主動式散熱。但很多生產現場是不允許散熱風扇存在的,例如烤漆作業區,因為環境裡有粉塵,不只容易導致風扇故障,萬一有火花產生,還有可能引發爆炸。
相較之下,FPGA是比較適合布署在現場的運算硬體平台,但FPGA的設計迭代過程比GPU耗時,軟體修改後,硬體描述語言(HDL)也要跟著調整,才能實現最佳化。因此,機器視覺系統要改以機器學習為基礎,並大量普及到工業現場,還需要一些時間來醞釀。但整體來說,因為以機器學習為基礎的機器視覺,對各種應用情境的適應能力較佳,因此長期來看,SI或軟體開發者應該還是會逐漸轉向機器學習。
三星全新V9車用處理器亮相 獲奧迪採用
瞄準自駕車商機,三星(Samsung)日前曾宣布推出Exynos Auto子品牌,生產自駕車相關晶片,而首款用於車載資訊娛樂系統(IVI)的處理器「Exynos Auto V9」也於近日亮相,且該晶片已獲奧迪(Audi)採用,搭載預計Exynos Auto V9晶片的奧迪汽車將於 2021年首次亮相。
三星電子設備解決方案部門副總裁Kenny Han表示,該公司致力於推出更頂級的汽車處理器,以實現更安全、舒適的駕駛體驗。新推出的Exynos Auto系列產品,將從Exynos Auto V9開始,為下一代汽車車載資訊娛樂系統帶來更強大的處理性能,同時滿足汽車產業嚴格的可靠性要求。
據悉,Exynos Auto V9是專為汽車資訊娛樂系統所設計,其可在多個螢幕上顯示相關的行車資訊,讓駕駛獲得更安全、更愉快的駕駛體驗。Exynos Auto V9採用8奈米製程,內建8個ARM最新的Cortex-A76 CPU核心,最高運行速率為 2.1GHz,並支援LPDDR4和LPDDR5 DRAM。
此外,該產品也整合了ARM Mali G76 GPU、高級Hi-Fi 4聲道的音頻數位訊號處理器(DSP)、專門處理人工智慧的神經網路處理器(NPU),以及安全核心(Safety Island Core),可針對系統操作進行即時保護,以滿足汽車安全完整性等級(ASIL)-B的標準。同時,透過NPU可以更有效的處理視覺和音頻數據,實現臉部、語音或手勢辨識等功能,進行更直覺、快速的操作。
另一方面,為了提供高度身臨其境的駕駛體驗,Exynos...