- Advertisement -
首頁 標籤 DSP

DSP

- Advertisment -

瑞薩電子新推出微控制器強化安全及隱私

瑞薩電子(Renesas)日前宣布推出一款具備Bluetooth5.0 32位元微控制器(MCU)─RX23W,適用於家用電器及醫療保健設備等IoT終端裝置。藉由將Bluetooth 5.0與瑞薩可信任安全IP(Trusted Secure IP, TSIP)結合在其高性能RX系列MCU上,為客戶提供用於系統控制和無線通訊的優化單晶片解決方案;同時還提供一種更安全的方式解決藍牙安全問題,例如竊聽、篡改和病毒。 瑞薩電子IoT平台事業部產品行銷副總裁Dayrl Khoo表示,雖然具有藍牙5.0低功耗功能的設備在市場上並非新產品,但瑞薩電子透過對安全性和隱私性的著重,為這種無所不在的無線技術帶來了新的轉折與價值。他亦表示,近來的安全問題讓該公司清楚瞭解,隨著更多的核心用例(Use Case)被定義,藍牙的應用也變得越來越複雜且迫切需要更好、更安全的連結。瑞薩相信那些配備藍牙5.0低功耗功能的應用,將可藉由在硬體安全方面的實力得到強化,並且這些全都是經由單一顆能處理應用程式、通訊、以及安全的MCU來實現。他很高興瑞薩能以可靠性及安全性均擁有良好口牌的旗艦RX系列來提供這些功能。 全新RX23W採用瑞薩RXv2核心,具有更好的FPU和DSP功能,可提供出色的運算效能,並在最大54MHz的時脈頻率下運作。RX23W可對長距離和網狀網路等功能提供完整的Bluetooth5.0低功耗支援,並達到3.0mA的低接收模式峰值功耗。並且,它還整合安全、觸控鍵、USB、與CAN等IoT設備不可或缺的豐富週邊功能,使得RX23W能夠在單一晶片上為家用電器、健康照護設備、以及運動和健身器材等IoT終端設備,實現系統控制與藍牙無線功能。此外,RX23W的藍牙網狀網路功能更讓它成為在工廠或建築物內收集感測器數據的IoT設備的選擇。
0

優化工作量/資料輸送量 雙核心MCU提高電源效率

功耗/低延遲需求上揚 單核心設計漸難負荷 原則上,單個高速CPU核心可以透過時間切片運行多個獨立執行緒,以處理低延遲即時控制任務以及聯網和系統管理任務。不過,對於採用特定製程技術已達到如此高效能的核心晶片而言,其在功耗和複雜性方面的表現可能不甚理想。 對於運行在單個核心上的任何即時應用而言,還存在一個問題,即如何使執行緒和中斷處理常式輕鬆地按時完成任務。對於任何資源分享的實現,需要關注的一點是,不相關流程或中斷處理常式的運行會阻塞特定執行緒的運行時間。為了確保執行緒在各種沒有任何依賴關係的條件下按時完成任務,用於計算所需餘量值的保守演算法將要求留出相當大的一部分未分配的處理週期。 此外,還須要考慮頻繁進行任務切換的開銷及其對處理輸送量的影響。當單個核心處理大量中斷事件時,中斷處理及相關任務切換的開銷可能很大。一種選擇是透過更高的時脈速度構建更多的效能餘量。實際上,將應用分散到多個處理器核心可能更有意義。對於不主要依賴於單執行緒輸送量的任何多工應用,使用並行方式通常會提高能源效率、增加確定性並簡化開發過程。 有效進行多工作負載 雙核心設計備受青睞 雙核方案可以更有效地共用多工系統的工作負載。採用雙核方案時,還可以使用更低的核心時脈頻率,進而提高快閃記憶體的匹配度;此外,還有助於減少或消除處理器必須等待指令或資料從取指請求返回時的停頓週期(等候狀態)數(表1)。 在某些應用中,處理相關資料饋送任務的密切關聯特性仍然支援單一流水線。但是,在高效能嵌入式應用中執行不同的功能時,使用多個核心更有意義,因為各種功能的關聯程度相對鬆散。 例如,在採用韌體實現閉環控制的電源中,效能主要取決於將類比採樣轉換為數位所需的時間,隨後根據該時間資料計算新的工作週期,接著更新PWM。使用多核控制器時,透過在沒有其他優先順序任務執行的核心上運行延時關鍵型功能,可以確保該功能不受其他系統活動的阻礙。 與時間關鍵型控制回路計算並行工作時,另一個CPU核心可以執行其他任務,如PMBus通訊和系統監視功能。類似地,在馬達控制應用中,將控制回路處理和CAN介面協定棧拆分給不同的核心,確保馬達換相精確且具有確定性。 在專案開發時間方面,拆分處理還有其他優勢。但是,要利用這一優勢,兩個核心需要保持同質性,這一點很重要。一種傳統的多工處理方式是根據處理器類型劃分工作負載。針對乘法累加選項優化的流水線上將專門運行訊號處理程式,但幾乎沒有能力有效地運行控制程式碼,而通用處理器則負責處理分支密集型程式。 實際上,在許多即時應用中,這種架構很難處理。訊號處理操作通常取決於可能快速變化的外部條件。在不同核心間同步狀態所需的處理器間通訊實現起來可能很複雜,因為與用於將命令和狀態更新轉發到網路介面的消息相比,這種方案對時間同步的要求更為嚴格。 統一數位訊號控制器架構展妙用 統一的數位訊號控制器架構(如Microchip的dsPIC33)將兩種類型的執行特性融合到單一架構中,進而解決了上述同步問題。此類流水線不但能高速地進行乘法累加和矩陣運算,還具有快速分支能力和高中斷回應效能,因此參數和演算法可以動態地適應不斷變化的條件。 這最終簡化了複雜訊號處理演算法的軟體方案。然而,設計階段上的壓力則意味著,無論客戶選擇哪種架構,都會面臨程式碼整合的挑戰。在許多應用中,通訊和控制功能常常分別分配給不同領域專家的開發團隊。 整合來自兩個或更多團隊的程式碼時,將面臨著一個關鍵問題,即確定調度和任務優先順序如何在各團隊之間運作。看似微不足道的決策(例如各個任務的優先順序)也可能對應用的整體即時行為產生重大影響。決策不佳意味著重要任務將長時間得不到處理器的處理,而無法表現良好效能。透過將任務集分布在兩個處理器上,由最瞭解相關應用程式部分所使用執行緒的相對優先順序的工程師負責設置這些優先順序。 透過拆分處理,可更輕鬆地管理和分配資料記憶體,並確保在專案期間創建和調試的Makefile和連結描述檔設置在最終套裝軟體中仍然生效。這有助於減少軟體整合團隊的工作量,並縮短產品上市時間。 儘管已透過拆分處理優化了開發工作量和處理輸送量,MCU供應商(如Microchip)仍在不斷努力改進架構,致力於幫助用戶提高效能。以雙核dsPIC33CH為例,不僅提高中斷回應能力,且核心中還實現了額外的指令,以進一步提高DSP效能。 作為數位訊號控制器(DSC),dsPIC33CH包含許多先進周邊,可降低系統成本並縮小電路板尺寸。這些周邊包括高速ADC、具有波形生成功能的DAC、類比比較器、類比可程式設計增益放大器和高解析度PWM發生器(解析度達250 ps)。 更智慧的周邊和周邊觸發訊號發生器等先進功能有助於減少電源或馬達控制應用中核心中斷的次數。例如,UART為LIN/J2602、IrDA、DMX和智慧卡協定擴展提供硬體支援,以降低軟體開銷。同樣,CAN-FD周邊支援位元流處理器和可程式設計自動重發功能,能夠獨立於CPU核心更加自主地運行。 Microchip的dsPIC33CH設計專為當今工程團隊的開發需求而優化,非常適合各種高效能和時間關鍵型實際嵌入式控制應用。此架構能夠充分滿足客戶的獨立設計、無縫整合需求。結果是,這種架構不但能夠提高效能,還有助於縮短產品上市時間、減小系統尺寸並降低成本(圖1)。 圖1 統一的數位訊號控制器架構有助於縮短產品上市時間、減小系統尺寸並降低成本。 (本文作者任職於Microchip)
0

AI語音觸發技術發威 聲控辨識反應一清二楚

然而,由於聲控所需之系統效能與一般語音辨識截然不同,因此,聲控專用演算法必須重新設計才能夠滿足客戶需求,因此掀起目前All-in-one聲控方案研發熱潮。 為此,半導體業者便開發出一套優異抗噪能力之語音觸發詞聲學模型,與ARM處理器及MEMS麥克風結合且毋須連接網路,也毋須回音消除的專屬DSP晶片之低成本聲控方案;其模型經由深度學習演算法訓練並加強噪音辨識能力,成功提升SNR=0dB的高噪音環境下觸發詞辨識率高達98%,並且在160毫秒之內做出反應,此模型適用於智慧空調或汽車導航等喧鬧環境下的聲控系統。 聲控應用增 AI-base語音觸發技術亮相 本文將以東芝半導體為例,圖1表示東芝在過去半世紀如何發展影像以及語音方面的AI技術,也列出相關產品的主要成果。經過三次人工智慧研究的熱潮期,自動辨識的主流技術從人工的Rule-base經由半自動的Model-base,進化成全自動的AI-base,後者之優勢是利用Big Data與超級電腦的巨大演算能力,快速訓練出數學模型之隱藏層的內部變數,模擬人類大腦所具有之非線性問題的推論能力,突破性的改善自動辨識率。 圖1 東芝AI技術發展圖 雖然語音自動辨識技術採取了上一段所提及的AI-base,但其產品的行銷策略與影像不同。因此,東芝把「聲控」視為語音辨識應用當中的「藍海」,自行研發離線式語音觸發(Voice Trigger)相關軟體技術,並推出第一代解決方案。此演算法所需之CPU能力遠低於影像辨識,雲端所訓練之聲學模型也不需經由硬體IP化,可直接載入軟體Library至ARM-A9或M4等級的微處理器平台。 舉例而言,亞馬遜推出的Echo或是Google Home等智慧音箱,無論是詢問天氣狀況還是搜尋附近咖啡店的地址,這些所謂「語音助理」服務不外乎是辨識使用者發出的語音內容,在網路上找尋答案,並把資料格式轉換成語音之後播放給使用者聽。 此時,讀者也許會試想,為何不將智慧音箱的語音辨識能力,直接用於「聲控」家電?智慧音箱也可以瞭解使用者的指令,並透過Wi-Fi而控制客廳的燈泡開關,甚至調整空調的室溫或風向等。那麼,這種智慧音箱+無線聲控的方式與「語音觸發」模組的差異在哪?聲控模組又適合何種情況或應用方面?以下將說明兩者差異。 如圖2上方所示,當使用智慧音箱並想變更空調溫度時,使用者會發現空調端的反應並不即時。主因是極為複雜的控制流程;智慧音箱本身不支援語音辨識功能,反而需要雲端AI幫忙,這意味著使用者所發出的語音資料(步驟1)需要先上傳至雲端(步驟2),經由雲端AI處理語音並辨識出其內容(步驟3)之後再度下載到智慧音箱(步驟4)。 圖2 智慧音箱vs語音開發 由於智慧音箱與空調機之間有一定距離的存在,所以還需要經過Wi-Fi或其他無線通訊協定並傳送指令至空調機之後才能完成室溫調整的工作(步驟5)。該方式除了反應緩慢之外,也必須經過外線網路,這不僅容易遭遇駭客入侵並增加個資外洩的風險,還會產生雲端之間的通訊費用以及無線通訊模組成本的增加。 如圖3下方所示,語音觸發與智慧音箱的不同在於,空調本身內建一套具有「語音觸發」能力的聲控模組;輸入使用者語音(步驟1)後,便不須經過遠端AI設備並直接辨識語音內容(步驟2),立刻完成室溫調整的工作(步驟3)。原本需要五個步驟的聲控流程,省下雲端之間的來回路徑。除了提升反應速度及網路安全,也節省了通訊費用與無線模組的成本。 圖3 語音觸發軟體縮短反應時間 透過語音觸發提升聲控反應時間 為此,東芝的語音觸發軟體採取了各種效能優化的措施,除了能避免外線網路所造成的延誤時間之外,還能進一步縮短聲控的反應時間。如圖3上方所示,一般語音辨識通常必須經過四個步驟:(1)偵測並暫存語音、(2)語意分析、(3)得分評比,以及(4)答案判斷。若使用者的目的不是AI對話而是聲控,則可讓語音辨識步驟更為簡化,以不影響其辨識效能之方式進而改善反應速度。 首先第一步廢除Talk Switch。一般語音辨識裝置如iPhone Siri會搭配一個Talk Switch,使用者按下其開關之後才能啟用語音辨識功能,其目的為不使用時以關閉相關功能而降低消耗電流。東芝的聲控模組不採用Talk Switch,當使用者啟動機器,整個聲控模組以及語音觸發功能也會自動開啟。此模組會一直保持待機狀態並不會進入休眠模式,當模組一接收到語音就會立刻「觸發」模組,並開始辨識內容,聲控反應更加敏捷。 第二點是不使用緩衝記憶體。語音辨識主要目的通常是辨識句子。因為句子是由多數單詞所組成,所以聲控模組必須先把整個句子暫存到緩衝記憶體,再利用語法解析器分解成一個個的單詞,才會開始進行語意分析並辨識句子的內容,這演算法勢必會產生緩衝時間,延誤反應時間。但聲控時所使用的語句,與一般語音辨識不同,是少數、預先定義而不變的觸發詞,因而不採用緩衝記憶體結構而立刻進行語意分析,進而達到反應速度大幅改善。 第三點是不做得分評比。Model-base或AI-base的語音辨識法,包括東芝的語音觸發,都是以相似度分數的高低來表達答案的正確性。相似度分數越高,正確性也就越高。得分評比通常被使用在多數觸發詞的聲控機器;它的作用是在FRR(False Rejection Rate,使用者發話,機器卻無反應)較高的環境之下,先降低「門檻指數」讓機器容易同時偵測到多數的可能答案,再依照相似度排列所有答案並選擇相似度最高為正確答案。 接著,將此得分評比的步驟改為選項;若使用者的機器只須辨識兩到三個少數觸發詞的話,語音觸發軟體可省下此步驟,直接選出大於門檻指數的觸發詞作為答案,進一步加快語音觸發的處理速度。如圖3下方所示,東芝的聲控模組經由以上三個加速措施而在160毫秒內做出反應,在相同的辨識率條件之下,目前優於任何聲控方案商的反應速度。 聲控效能驗證結果 圖4為東芝模組的聲控效能實驗結果。我們選用了圖中的十個中文喚醒詞,並調整過靈敏度門檻指數,設置本機於空調機器旁邊,再將空調風量設為最大值來進行實驗。在S/N值約為0dB的實驗環境中,邀請了十個人,從距離空調1、3、5公尺的地方發出10種喚醒詞各三次,並重複此實驗。實驗取得了300次取樣母數,再將其辨識成功次數以百分比呈顯在圖表上。 圖4 語音聲控實驗結果 值得一提的是,此模組雖然只使用Knowles製的廉價MEMS麥克風,也沒有做任何麥克風相關的設計優化,卻呈現了良好的辨識率(AC_High_1M:98%)。這是因為AI-model在雲端被訓練時,已將各種類型的風切聲加入至聲學模型中,使其有萬用型抗噪能力,相信此一成果將會改變語音辨識的設計概念。現在的聲控模組,融合了類比麥克風及數位演算平台,為了噪音消除,類比麥克風負責波束增強,雜訊濾波等語音處理的前端工作。若後端演算法的抗噪能力不夠理想,就必須加強前端類比麥克風的抗噪功能來輔助後端的不足。 但問題在於,一般類比元件的電氣特性易受其材料的影響而難以實現品質控制,聲控優化於是成了一項難題,更成為了系統研發上的瓶頸;而此一聲控模組方案,方便系統製造商就近享有與類比麥克風同等的噪音消除效果。 圖5表示東芝的語音觸發聲控模組所採用之高階及中低階處理器。TZ2100可扮演一顆聲控晶片的角色,也可負責智慧家電的系統處理,如顯示面板、錄放多媒體資訊等。圖5左方所示,智慧家電的系統開發者一旦採用TZ2100聲控模組方案,便可取代原有家電MCU的所有功能,也能進一步降低整體系統的硬體成本。另一款中低階處理器TMPM4G6則具備兩項優點,分別是低成本及Time-to-Market。在晶片成本方面,雖然TMPM4G6模組保留可足夠於執行語音觸發軟體的記憶體容量以及MEMS麥克風的連接介面,卻也犧牲了較少使用的各種IP並降低晶片的製造成本,故成了針對聲控用途的另一低成本選擇方案。 圖5 語音聲控模組基本架構 (本文作者為台灣東芝電子技術行銷處新事業部副協理)
0

CEVA宣佈推出SLAM軟體開發套件用於智慧視覺DSP

CEVA宣佈推出CEVA-SLAM軟體開發套件,旨在簡化同步定位和映射(SLAM)產品的開發工作,目標包括行動設備、AR/VR耳機、機器人、自動駕駛汽車和其他具有相機功能的設備。CEVA-SLAM用於CEVA-XM系列智慧視覺DSP和NeuPro系列AI處理器,它整合了所需的硬體、軟體和介面,為希望將高效SLAM實施整合到低功耗嵌入式系統的企業顯著降低了入門門檻。 CEVA視覺業務部門副總裁兼總經理Ilan Yona評論道,SLAM是實現設備周圍環境的高精度3D映射的基礎技術。它是包括AR/VR耳機、無人機、機器人和其他自動機器等廣泛新興設備的關鍵元件。CEVA充分利用公司在視覺DSP和軟體演算法設計方面的獨特技術,使得客戶更容易進入發展蓬勃但複雜的3D機器視覺領域。 CEVA-SLAM SDK整合了所需的硬體、軟體和介面,加速了SLAM應用的開發,在任何嵌入式系統中高效實施SLAM功能。這款SDK包含了使得CPU可將重載SLAM模組卸載到CEVA-XM DSP的詳細介面。這些構建模組利用高效DSP同時支援定點和浮點數學運算,並延長了設備的電池壽命。SDK構建模組包括影像處理功能(包括特徵檢測、特徵描述符、特徵匹配)、線性代數(包括矩陣操作、線性方程求解)、用於約束調整的快速稀疏方程求解等。 在CEVA-XM6 DSP上以每秒60畫面播放速率運行完整的SLAM跟蹤模組,功耗僅為86mW,可見CEVA-SLAM SDK的低功耗性能。當與CEVA-XM DSP或NeuPro AI處理器一起部署時,客戶可以在統一並且易於設計程式的硬體平台上滿足各種需要SLAM功能的用例和應用需求,比如視覺定位,以及用於圖像和視覺的傳統神經網路工作負載。
0

妥善權衡DSP與MCU運算資源 IoT應用兼顧成本與續航力

由於IoT裝置一般都需要兩種功能,因此必須登入至少兩組內核。這對充電後可用時間要求不高的高冗餘裝置可能無關緊要,但對多數IoT應用就成為大缺點;後者需要的是能以高成本效益及長充電週期滿足前述兩種需求的優化混合處理器。針對處理器的真正需求進行詳細的分析,結果顯示這樣的解決方案不僅可行,且在各種物聯網應用中皆具有競爭力。 以共享自行車或滑板車為例,這些設備必須追蹤定位,因此須要採用以GNSS定位的內建裝置;這些設備同時還必須在遠離藍牙覆蓋或Wi-Fi接入點的位置進行通訊,因此行動接入是理想的平台;由於通訊流量不大故最好採用NB-IoT協議;受到日益高漲之安全及隱私要求影響,會需要一定程度的本地計算能力,且其程度可能大到出乎意料。 總結而言,簡單設備必須支持4G或5G、GNSS、應用程序、加密及安全指定位址空間/安全開機,並且要密集部署在許多個城市。企業成敗取決於這些設備的可用性和成本,盡可能降低成本和功率(維護極小化)成為企業存亡的關鍵。 數位訊號處理/控制間須平衡 這些應用的計算需求值得進一步探索,特別是在數位訊號處理和數位控制間的平衡。以NB-IoT連接、GNSS和安全標準的底層演算法為始,將資產追蹤器裝置(頻率為100MHz左右)的活動分解為DSP功能(基頻數據機和實體層控制的某些部分)和控制功能(協議堆疊、安全性和一般內務處理性)。NB-IoT通訊流量不大的輕量級應用,可以發現下列的循環模式: .數據機PHY(大部分為DSP)~35% .L1控制(DSP及控制)~25% .協議堆疊(大部分為控制)~40% 此處可見循環均勻分布於訊號處理和控制之間,混合型處理器因此為可行的選擇。不能同時運行這兩種功能是否會對效能產生影響?不見得,因為這些都不是高性能應用程序。在需要速度的應用(如最新版的eNB-IoT)通常可藉由功能序列化以降低淨能耗;每個循環輪流快速運行後停止是能源管理的常見做法。 將分析範圍擴大,針對聲音處理和語音控制進行研究,例如智慧型音箱、無線耳塞、可穿戴設備、聲控裝置,以及由玻璃破碎等特殊噪音觸發的安全裝置。在這些應用中有不同的需求組合:用於音樂播放的音頻編解碼器(如Dolby)、語音/聲音拾音降噪和神經網路處理,以識別觸發短語或用於設備控制的少量詞彙。 此處採用Dolby Atmos及自有的降噪和語音識別基準,按循環區分活動產生下列粗略的分類: .音訊編解碼:7成控制、3成DSP .降噪:9成DSP(多個篩選)、1成控制 .RNN/LSTM神經網路:6成DSP、4成控制 這些實例雖然DSP活動偏多,但控制元件仍有相當比例,因此混合內核仍有意義。 雖然合併這兩個功能於單一處理器看起來非常有說服力,實務上卻不僅止於在控制器中加幾個MAC而已。DSP必須滿足高階DSP應用(例如最新通訊標準)的需求,亦即需有16×16和32×32 MAC、SIMD,以及對GNSS浮點和雙精度的原生支持。由於NB-IoT和各種GNSS標準不斷進化,因此本架構必須非常靈活才能在軟體層面進行調整;同時,這樣的解決方案必須是高效能的控制器、支持非常緊湊的代碼(DSP在計算方面效能欠佳)和高效的開箱即用C開發支持,才能以連接傳統、開源和生態系統代碼源。 (本文作者為CEVA處理器架構總監)
0

大疆在Mavic 2空拍無人機中部署CEVA DSP核心/平台

CEVA宣佈民用無人機和航空成像(Aerial Imaging)領域的世界領導廠商大疆在其最新一代Mavic 2空拍無人機產品中部署CEVA DSP核心和平台,實現了設備上的人工智慧、先進的電腦視覺和長距離通訊功能。 CEVA執行長Gideon Wertheizer表示,大疆的無人機產品利用人工智慧(AI)、電腦視覺和其他顛覆性技術提供真正前所未有的體驗,將會改變許多產業的樣貌。Mavic 2系列無人機充分體現了這方面的創新;對於CEVA用於電腦視覺、AI和長距離通訊的先進DSP和平台能夠幫助大疆引領市場。 Mavic 2是專為專業人士、空拍攝影師和內容創作者所設計的產品,也是大疆有史以來最先進的空拍無人機系列。這款無人機融合了世界上最受歡迎的Mavic Pro最具代表性的折疊設計,是具有全新平衡環穩定(Gimbal-Stabilized)相機和Hyperlapse及ActiveTrack等先進智慧功能的強大平台,能夠更輕鬆地拍攝出更引人入勝的作品。出色的Mavic 2擁有長達31分鐘飛行時間以及更穩定的視訊傳輸系統,可為拍攝史詩級鏡頭提供最佳的飛行體驗。
0

ADI推出SHARC音訊模組平台加速音訊DSP專案開發

Analog Devices(ADI)宣佈供貨SHARC音訊模組(ADZS-SC589-MINI),此款硬體/軟體平台有助於提升各項數位音訊產品的原型製作、開發和生產效率。SHARC音訊模組將高性能音訊訊號處理元件與全方位軟體發展環境創新組合,使其非常適合音效處理器、多通道音訊系統、MIDI合成器和許多其他基於DSP的音訊專案應用。 傳統的產品開發工作通常需要花費大量的時間和精力先選擇元件、製作電路板原型和進行基本軟體結構開發,之後才開始考慮如何滿足自身的產品需求。SHARC音訊模組透過提供整合各種類比和數位I/O選項,以及基本套裝軟體和開發環境的音訊平台加速開發進程。SHARC音訊模組可作為獨立自足式系統,也可以加以擴展,以支援創建自訂I/O和控制介面。 Clockworks執行長Brewster LaMacchia表示,SHARC音訊模組是支援音訊處理元件開發的理想平台,重新設計整個系統原本需要大量時間,而現在,運用該模組則只需極短的時間便可創建功能強大的各種客製I/O周邊。 SHARC音訊模組的核心產品為ADI的ADSP-SC589處理器,其為一款用於音訊處理的先進引擎,採用兩個500MHz SHARC+ DSP核心和一個ARM Cortex-A5核心。同時具有精心設計的系統周邊連接至處理器,包含兩個2 Gb DDR3記憶體和一個512 Mb SPI快閃記憶體、UART(用於MIDI等)、SigmaDSP ADAU1761 96 kHz、24位元音訊編解碼器,以及Gigabit Ethernet、S/PDIF、USB OTG和HS等等。 除了主SHARC音訊模組之外,ADI並透過名為「Fin」的擴展板提供額外的功能。音訊專案Fin (ADZS-AUDIOPROJECT)為一款MIDI兼樂器/FX子卡,可為SHARC音訊模組提供具有¼立體聲I/O的控制介面、額外連接性、及更廣的訊號存取能力。 moForte執行長Pat Scandalis表示,SHARC音訊模組平台及其對Grame University Faust音訊DSP語言的支援,有助於將音訊頻率合成和處理演算法快速移轉到功能強大且性能良好的硬體平台。音訊專案Fin並提供我們完善的I/O組合。憑藉SHARC音訊模組,開發人員將可運用精巧且經濟高成本效益的基礎平台及高度優化的軟體和工具生態系統,而專注於自身的演算法和使用者介面開發工作。
0

運算力效能跳躍成長 專用型語音DSP設計嶄露頭角

AI語音服務越來越多樣化,例如化身家庭管家、私人主播,或營養管理師角色,為消費者提供即時又便利的服務,其背後AI演算法的運算能力更是不斷強化,進一步刺激專用型語音DSP的需求。 Cadence亞太區IP銷售總監陳會馨表示,AI語音辨識需求急速攀升,帶動IP相關產品的詢問度與訂單快速增加,同時也造成應用處理器(AP)設計產生改變,催生專用型語音DSP設計當道。 事實上,早期智慧音箱發展起飛時,內部大多採用Arm為基礎的CPU架構,但從2016年開始,許多晶片商為了滿足智慧語音識別處理所需的效能,開始研發專用的語音處理晶片,也開始導入語音DSP在其中。追根究柢,導致晶片設計改變,主要原因在於「運算能力需求的增加」。 眾所皆知,在智慧語音識別過程中,首先須要對進來的語音做前處理,此處理過程包含多麥克風陣列、遠場、波束增強、噪音消除等功能,這些技術對於在地端的運算能力有龐大要求,促使語音DSP技術於近兩年發展快速。換言之,過去可能是單一通道處理技術,如濾波的技術,演變至今,有許多神經網路技術也開始導入其中。 陳會馨指出,現有許多噪音辨識乃是透過人工智慧學習演算法,對原始資料進行分類,進而瞭解資料內部結構,該技術稱之為非監督式學習(Unsupervised Learning Network)。這種演算法的引進,對於晶片硬體的運算能力要求將會比過去AP晶片的要求高出許多,若採用舊有AP晶片技術,將難以滿足此類型技術的運算能力需求。 陳會馨分析,過去AP設計大多並未導入DSP設計,僅採用Arm基礎的CPU架構。雖然仍有部分廠商採用通用型DSP進行訊號處理,但相較於一顆專為語音辨識量身打造的語音DSP,後者能採取較低的工作頻率,完成AI語音所需的工作運算能力與技術規格要求,對於語音處理的效能也將相對提升。基於此,專用型語音DSP設計,無疑開啟另一波殺手級AI語音應用的關鍵推手。
0

ADI降壓型穩壓器縮減高功率密度應用布局面積

Analog Devices(ADI)宣布推出Power by Linear LTC3310S,其為一款5V、10A低EMI單晶式同步降壓型轉換器。該元件的固定頻率峰值電流模式架構非常適合要求快速瞬變響應的高降壓比應用。LTC3310S整合熱點迴圈旁路電容的Silent Switcher2架構,得以實現高效率、小布局面積解決方案(在高達5MHz頻率時)及卓越的EMI性能。多相操作可實現多個元件的直接並聯,以提供較高的輸出電流。 LTC3310S的2.25V至5.5V輸入範圍可支援包括大多數中間匯流排電壓等多種應用。內建低阻抗的MOSFET可提供高達10A的連續負載電流,熱效影響極少。0.5V至VIN的輸出電壓範圍非常適合負載點應用,如高電流/低電壓DSP/FPGA/GPU/ASIC參考設計。其他主要應用包括光網路、電信/資料通訊和汽車系統、分散式電源架構和一般中高功率密度系統。 LTC3310S的35ns低最短導通時間可在高頻下實現高降壓比電源。100%工作週期操作提供低電壓差性能,操作頻率可同步至外部時脈。在–40°C至125°C的接面溫度操作範圍內,LTC3310S擁有±1%總體參考電壓精度。其他特點包括指示輸出處於穩壓狀態的電源良好訊號、精準致能門檻、輸出過壓保護、熱保護關機、晶片溫度監視器、時脈同步、模式選擇和輸出短路保護。
0

瑞薩電子推單一封裝簡化型數位電源模組

瑞薩電子宣布推出新型的單一封裝數位DC/DC PMBus電源模組系列產品。這五顆RAA210xxx簡化型數位電源模組,提供先進的數位遙測與優越性能,而且與瑞薩的類比電源模組同樣易於使用。   該模組都是完整的降壓且穩壓的電源,分別可提供25A、33A、雙25A、50A和70A的輸出電流,而且採用工業標準的12V或5V輸入電壓軌。在伺服器、儲存裝置、光纖網路和電信設備內,RAA210xxx系列為其中使用的先進FPGA、DSP、ASIC和記憶體,提供負載端(Point-of-Load,POL)的電壓轉換。每顆模組都在熱最佳化的高密度陣列(High Density Array,HDA)封裝模組內,整合了PWM控制器、MOSFET、電感器和被動元件。完成電源電路只需要外加大容量的輸入電容器和輸出電容器。   RAA210xxx是成本更低的簡化型數位電源模組系列產品,與瑞薩的全功能數位ISL827xM系列產品接腳相容。RAA210xxx簡化型數位電源模組提供運行時的數位可程式性,可透過PMBus命令子集來支援配置更改,並且具備完整的遙測與系統監控。如果以後需要更高級的數位控制,就升級到接腳相容的ISL827xM模組,升級後可以實現與多顆模組並聯來共享電流,也可以使用PowerNavigator工具存取完整版PMBus命令,還可以用非揮發性記憶體來做為配置的儲存裝置。
0
- Advertisement -
- Advertisement -

最新文章

- Advertisement -

熱門文章

- Advertisement -

編輯推薦

- Advertisement -