- Advertisement -
首頁 技術頻道

技術頻道

- Advertisement -

新型鋰電池高度整合 電池監控系統安全/精準/高效

本文將說明電池平衡和隔離通訊網路的最新電池監控系統,如何利用新型鋰電池化學技術的優勢以及創新的積體電路(IC),實現更高的可靠性和延長電池30%的壽命,而這對大型能源儲存系統尤其有效。 醫療應用中使用的電池,需要在日常使用的情況下滿足高可靠性、安全性和效率的高標準,病患的便攜式系統,包括胸部按壓系統、醫院急診室設備、電動醫療推車和床、便攜式超音波儀器、遠距監控以及市場上的新能源儲存系統(ESS)。 整合輸電網 提供備用電源/有效省電 能源儲存系統既不與病患有直接的交集,也不由醫生來操作。它們是不斷電系統(UPS)的進階系統,傳統上,UPS是關鍵應用的備用電源,如急診室設備、IT網路關鍵基礎結構等;然而新型鋰電池讓醫院的能源儲存系統涵蓋愈來愈多的功能,並且與醫院的輸電網路完全整合,因而帶來備用電源及有效省電兩項優勢。 能源儲存系統不再只局限於小部分的關鍵應用,而是為整個設施提供完善的備用電源,並提供防止停電、保障輸電網路電源/電壓品質的功能,並減少緊急柴油發電機的使用;有兆瓦時(MWh)的ESS,讓醫院即使在長時間的停電情況下仍能運作,並提供穩定的輸電網路,且能有效地節省電費,透過ESS醫院能直接控制用電情況,並減少高功率峰值的需求,進而降低電費,尤其醫院通常有相當大的屋頂面積,非常適合安裝太陽光電(PV)系統發電,與ESS相結合可以儲存和產生自用電力,具有經濟效益並減少碳排放(圖1)。 圖1 儲能電池 電壓曲線平坦 提升工作效率 以鋰為基礎的化學物質作為新型電池材料,現已在汽車、工業、醫療保健等市場中被使用。不同類型的鋰電池具有不同優勢,可以滿足各種應用和產品設計的電源要求。例如鈷酸鋰(LiCoO2)具有很高的比能,使其適用於可攜式產品;鋰錳氧化物(LiMn2O4)具有極低的內阻,可實現快速充電和高電流放電,是調峰儲能應用的理想選擇;磷酸鐵鋰(LiFePO4)在完全充電條件下具有高耐受性,並且可以長時間保持高電壓,這樣的性能使其成為停電期間需要大型能源儲存系統的最佳選擇,缺點是自放電率較高,但上述儲存應用方式並沒有採用此材料。 根據不同應用需要多種類型的電池。例如汽車應用需要高可靠性及優異的充電和放電速度;醫療保健應用則需要持續的高峰值電流以提高效率和延長使用壽命。然而這些解決方案的共同點,是鋰化學物質在額定電壓範圍內均具有非常平坦的放電曲線(圖2)。標準電池中的電壓降是500mV至1V,而進階鋰電池的放電曲線是平緩的,電壓降範圍為50mV至200mV,例如磷酸鐵鋰或鈷酸鋰。 圖2 鋰電池放電曲線 電壓曲線的平坦度在與電池電壓軌相連的IC電源管理鏈中具有巨大優勢,可以讓DC-DC轉換器在較小的輸入電壓範圍內以最大效率工作。從已知的Vin轉換為非常接近的Vout,系統電源鏈可以設計成具有理想工作週期的降壓和升壓轉換器,以實現在工作條件下>99%的效率。此外,電池充電器可以瞄準充電電壓,並根據穩定的工作電壓確定負載大小,以提高最終應用的精度,例如遠距監控或病患體內的電子設備。如果化學物質陳舊或放電曲線不平坦,透過電池供電的DC-DC轉換效率將降低,這會縮短電池持續時間(-20%),又或者與醫療可攜式設備連接時,因額外的功耗而需要更頻繁地充電。 SOC/SOH延長電池壽命 放電曲線平坦的主要缺點是很難確定電池的充電狀態(SOC)和健康狀態(SOH),必須以高精度計算SOC以確保電池正確充電和放電。過度充電會帶來安全問題,像是引起化學物質降解或短路,進而導致火災和氣體危害;過度放電會損壞電池,並使電池壽命縮短50%以上。SOH會提供電池狀態的資訊,以防淘汰掉效能良好的電池,並在出現問題之前監控壞電池的狀態。主要的微控制器會即時分析SOC和SOH資料、調整充電運算、告知使用者電池的電勢(例如,如果電池準備好在斷電的情況下進行大電流深度放電),並保持在大型能源儲存系統中,處於不良與良好狀態電池之間的最佳平衡,以延長總電池壽命。 對具有陡峭放電曲線的舊電池進行成像,可透過短時間測量電壓降的增量以及瞭解電池電壓的絕對值,來更容易地計算該電池的充電狀態。而對於新的鋰電池,由於在既定的時間範圍內電壓降要小得多,因此進行此測量所需的精度要高幾個數量級。 對於SOH,舊電池以更快、更可預測的方式放電,其電壓放電曲線變得更加陡峭,且無法達到目標充電電壓。新的鋰電池將保持更長的良好性能,但最終會以更優異的性能退化,並在接近使用壽命或損壞時迅速改變其阻抗和放電曲線。在每個電池上進行溫度量測時要格外小心,另外,最好將SOC和SOH運算與該資訊整合,使其更加準確。 在理想情況下,精確可靠的SOC和SOH計算可幫助延長電池壽命從10年至20年。通常可將電池壽命延長30%,且在包含維修費用的情況下,將能源儲存系統的總擁有成本降低30%以上。此外,加上更高準確性的SOC資訊,可避免過度充電和放電等會快速耗盡電池電量的情況;大幅地減少短路、火災和其他危險情況的機率,並幫助消耗電池中的能量,以最佳、有效的方式為電池充電。 可攜式電池管理解決方案 本文章中提到的LTC6813(圖3)電池管理解決方案(BMS)可用於醫療設備(例如便攜式超聲儀)和大規模(兆瓦/小時)的能量儲存系統,例如醫院、工廠、穩定電網、電動汽車充電基礎設施、住宅單位,以及工業機器人和車輛。ADI可攜式的技術可運作於各種惡劣環境,並且符合汽車ASIL、工業SIL的各種功能安全標準,如VDE AR 2510-2/-50、IEC EN 61508等,在可靠性和安全性方面有極大的優勢。 圖3 LTC6813應用原理圖 全新高效且可靠電池監控系統的解決方案,是將18節電池監控器和平衡IC與微控制器結合到SPI從屬隔離介面。一個多節電池堆疊監控器最多可測量18個串聯電池,且總測量誤差小於2.2mV。電池測量範圍為0至5V,適用大多數電池的化學性質。可以在290μs內測量全部18節電池,並可選擇較低的資料採集速率,以實現高降噪。可將多個堆疊監控設備串聯連接,來同時監控長且高壓的電池組電池。每個堆棧監控器都有一個isoSPI接口,用於高速、抗射頻干擾且長距離的通訊。多台設備以菊鏈形式連接,一台主機處理器連線所有設備,該菊鏈可以雙向操作,即使在通訊路徑發生故障的情況下,也可以確保通訊的完整性。IC可以直接由電池堆疊或隔離電源供電,並包括每節電池的被動平衡,每節電池有一個單獨的PWM工作週期。其他功能還包括一個板載5V穩壓器、9條通用I/O線纜,以及將電流消耗降低至6μA的睡眠模式。 由於BMS應用的短期和長期精度要求,其採用嵌入式齊納(Zener)轉換參考,而不是能帶隙(Band Gap)參考,這提供了穩定的低漂移(20ppm/√kHr)、低溫度係數(3ppm/℃)、低磁滯(20ppm)主要電壓參考,以及優異的長期穩定性,這種準確性和穩定性相當重要,是所有後續電池組測量的基礎,這些誤差會對獲取的資料可信度、運算一致性和系統性能產生積累的影響。 儘管高精度參考是卓越性能的必要功能,但這還不夠。類比數位轉換器架構及其操作必須在電氣噪聲的環境下符合規範,這是系統高電流/電壓逆變器的脈寬調變(PWM)瞬變的結果。要準確評估電池的充電狀態和健康狀況還需相關的電壓、電流和溫度量測。 為了在不影響BMS性能的前提下降低系統噪聲,堆疊監控器轉換器使用Σ-Δ拓撲,使用者有六種濾波器選項來協助解決噪聲問題。Σ-Δ方式在每次轉換時使用許多樣本的特性以及平均濾波功能,能降低電磁干擾(EMI)和其他瞬態噪聲的影響。 滿足電池平衡需求 在使用以電池組或模組安置之大型電池組的任何系統(例如用於為醫院微電網和亞電網供電的大型能源儲存裝置)中,不可避免對電池單位平衡的需求。儘管大部分的鋰電池在一開始都能配合運作地很好,但是會隨著時間降低容量。老化過程可能會依不同因素而異,例如電池組溫度的梯度。超出SOC限制運行的電池將提早老化,並失去額外的容量,使整個惡化過程加劇,這些容量上的差異,再加上自放電和負載電流的微小區別,會導致電池失衡。 堆疊監控器IC直接支援被動平衡(具有使用者可自行設定的計時器),以解決電池不平衡的問題。被動平衡是一種低成本的簡單方法,可以在電池充電週期內標準化所有電池的SOC。透過消除低容量電池的電荷,被動平衡可確保這些低容量電池不會過度充電。此IC還可以用於控制主動平衡,這是一種更為複雜的平衡技術,可經由充電或放電週期在電池之間轉移電荷。 無論使用主動還是被動的方法,電池平衡都依賴於高精度量測。隨著量測誤差的增加,系統建立的工作保護頻帶也必須增加,因此平衡性能的效用將受到限制。此外,隨著SOC範圍的限制,對這些誤差的敏感度也隨之增加,小於1.2mV的總量測誤差完全在電池監控系統的系統級要求之內。 堆疊監控器解決方案有效使用電池 在能源儲存系統中,必須有一個通訊迴路才能連接所有的電池,此迴路將資料從系統電池傳輸到以雲端為基礎的能量管理運算,追蹤充電和放電事件,以確定在斷電的情況下,能夠最大限度地利用電池或保持電池最大的充電量。 ADI的LTC681x和LTC680x系列代表電池堆疊監控器的最新技術,而18通道版本稱為LTC6813。 電池堆疊監控器設備需要與主單位進行溝通,在這些主單位上,微控制器或處理器會計算SOC和SOH值,並調節充電和放電曲線。互聯形式的可能性很多,其中隔離通訊通道是高壓應用的首選,例如能源儲存系統(400至1500V)和帶有大容量電池的可攜式設備(40至200V)。 在LTC6820與isoSPI通訊介面結合使用時(圖4),LTC6813中內建的isoSPI功能可在跨高電壓屏障實現安全可靠的傳輸訊息,在能源儲存系統中特別有用。該能源儲存系統透過串聯的電池產生數百伏的電壓,該電池需要完全絕緣,以減少對人員的危害。 圖4 LTC6813與LTC6820的隔離連接 在這些使用超過18節電池的儲存系統中,需要將多個LTC6813 BMS板連接在一起。多個相同PCB的穩定互連,每個均包含一個LTC6813,以菊鏈形式配置作業。微處理器位於個別的PCB上,使用LTC6820支援IC,以實現微處理器PCB和第一個LTC6813 PCB之間的2線隔離。在只需要一個LTC6813-1時,如果第二個isoSPI埠(B埠)正確偏置並端接,就可以用作單個(非菊鍊式)設備。 設計具有平衡和通訊功能電池堆疊監控器的主要挑戰,是建立無噪聲的PCB布局設計,其關鍵路徑應遠離噪聲源(如開關電源),以向電池組監控器提供清晰的訊號。ADI解決方案使堆疊監控器得到更好的準確性和精度,讓原本的設計更上一層樓,可更有效地使用電池,將其壽命延長30%,並以安全的方式運作。 (本文作者為ADI策略行銷經理)
0

突圍技術瓶頸 Micro LED穩健邁向量產

先前筆者曾探討了顯示器技術一路從映像管(CRT)、電漿顯示面板(PDP)、液晶顯示器(LCD),進展到今天的有機發光二極體(OLED)、迷你發光二極體(Mini LED)乃至微發光二極體(Micro LED)和Micro-in-mini。從目前產業界的發展來看,手表、手機,已經被OLED的技術所占據,已擁有一定的規模經濟和成本優勢,相較於LCD又有更省電的優點,在可攜式裝置的應用領域,其餘的顯示器技術在短時間內將很難與之抗衡。而Tablet、Notebook、TV的市場價格敏感度相當相當的高,除了LCD之外,目前其他顯示技術也很難撼動、滲透。因此,Micro LED可切入的市場將聚焦在極大和極小的應用領域,意即Public Information Display(PID)和AR/VR。然而,AR/VR是一個極度系統性整合設計的應用領域,全世界目前僅有幾家大品牌廠商有此實力可以進行整合性開發,而且如此高的解析度對TFT而言是極困難的,所以將會是CMOS的天下。所以,Micro LED最早產業化的應用領域將會是PID,這是無庸置疑的,那目前的Micro LED邁向產業化的路上還有哪些技術瓶頸有待克服呢?雖然這些技術瓶頸在其他應用領域會遇到的技術障礙有其重疊之處,但是解決方案可能會因其應用領域特性的不同而有所差異。 .巨量轉移(Mass Transfer) .接合(Bonding) .維修(Repair) .紅光Micro LED發光效率 巨量轉移的技術先前已經探討過,因此本篇文章不再贅述,將會聚焦在後面三項。 三種接合各有優勢 顧名思義,Bonding就是將Micro LED的電極和電路基板電性上接合、導通。目前在半導體、LED、TFT LCD業界常見的Bonding方式有: .異方性導電膠(ACF) .錫膏回焊(Sn-paste Reflow) .共晶接合(Eutectic Bonding) 首先,以下來談ACF。如圖1所示,ACF的原理是將大小數微米(~μm)的塑膠小球表面鍍上Ni或Ni/Au,然後混入膠中,當對這個ACF加壓加熱時,塑膠球會被壓扁,上面Micro LED的電極透過塑膠小球表面的Ni或Ni/Au導通至下面的電路基板,同時,膠受熱固化,把上下電極和塑膠小球牢牢抓住、固定住,維持電性導通。因應Micro LED的特性,塑膠小球的尺寸、密度、整體厚度、黏性,都有別於以往的ACF,需要特別為了Micro LED重新開發。但是它的缺點是壓力大及價格高,針對這些需求及弱點,筆者亦有申請並獲得數個日本及美國關於ACF的專利,來解決上述問題。 圖1 Micro LED利用ACF進行接合 其次,錫膏回焊是一個很成熟的SMT技術,具體的做法是將薄鋼板依電路基板的電極相對位置挖洞,對準、覆蓋在電路基板上,將錫膏刷上去,錫膏會透過鋼板上的洞附著在電路基板的電極上,然後將電子元件或晶片置於其上,進迴焊爐,將錫膏中的溶劑加熱去除,接著Sn和上面的晶片電極與下方的電路基板電極化合形成合金。但是這個技術受限於鋼板開孔尺寸無法縮小,就算是採用噴錫的方式,依舊無法縮小到Micro LED電極尺寸的量級,僅能適用於Mini LED大小的晶片,所以,Micro-in-mini是一個可能可以適用SMT錫膏迴焊技術的解決方案。 Eutectic Bonding,也就是共晶接合,常見的共晶系統有SnCu、SnAu、SnNi等,在共晶溫度下,二種金屬會以液態的方式融合在一起,然後降溫變回固態、接合在一起。 考量到Thermal Budget的問題,目前有許多人在Micro LED的接合上採用InAu的Eutectic Bonding,如圖2所示,因為它有一個相的Eutectic...
0

依情境選擇藍牙SoC BLE彈性設計實現軟硬整合

在藍牙傳播中,低功耗藍牙已可保護大量的連接設備插座(Socket)。而在無線設計中選擇低功耗藍牙的最關鍵原因之一,是其無處不在,且大多數IoT終端節點都由電池供電,因此較長的電池壽命就顯得極為珍貴。 儘管聽起來方向似乎很明確,但是選擇低功耗藍牙裝置首先要評估其設備文檔。例如,考量無線SoC的接收或發送模式中的運作電流。許多低功耗藍牙SoC文檔顯示的的電流消耗為數毫安培。如芯科科技(Silicon Labs)的EFR32BG22 SoC在0dBm時的無線電接收電流為2.6mA,發射電流為3.5mA,而這些數字僅與SoC RF收發器有關。在SoC等級,這些電流則稍高一些,分別為3.6mA和4.1mA。一個常見的錯誤是僅依靠SoC電流消耗的射頻數位(Radio Number)來判斷。設備文檔的首頁通常必須透過對資料手冊的全面分析來驗證。 另一個範例是以每兆赫微安培為報告單位的CPU功耗。在密集運算應用的情況下,此數位資料可能成為決定性的選擇標準,且通常是CPU在最高頻率時的最佳情況下才可取得。換句話說,當SoC CPU的工作頻率與製造商產品資料手冊中指定的頻率不同時,可證明資料表中顯示的數值可能非常不準確。 第三個例子是深度睡眠電流,這對於電池供電的終端產品相當重要。該數字通常在數百奈安培至幾微安培之間。而更重要的是須確保深度睡眠電流的數字與保留的RAM大小維持相關,並且包含即時時脈(RTC)電流的消耗。RTC與精準的睡眠時脈源結合在一起,是為了維持低功耗藍牙正常工作所需的時序。在上述SoC的案例下,資料手冊的首頁提到了EM2模式下的深度睡眠電流為1.40μA,保留了32KB RAM,以及RTC從低頻晶體振盪器(LXCO)開始運作下,有關EM2模式的情況。資料手冊的電流消耗部分則提供了更多資訊。因此,資料手冊中的功率數位缺乏標準化可能會造成錯誤的比較,最終導致選擇錯誤的元件。 依應用需求彈性選擇SoC 評估低功耗藍牙SoC時考慮應用需求很重要。大多數供應商都試圖以負責任的態度來展示他們的數據,但是設備在多種不同應用場景中提供的數據不可能適合所有案例,說明了終端應用知識的高度重要性。 選擇低功耗藍牙SoC時,工作電流和睡眠電流是關鍵的指標。必須將這些電流數據帶入與應用環境緊密匹配的模型中,以產生對平均功耗的合理評估。此類模型通常包括開/關工作週期,並且能認知低工作週期會選擇具有最低深度睡眠電流的SoC,而高工作週期則會選擇具有最低工作電流的SoC。 另一個參數可能是終端產品的環境溫度。低功耗藍牙SoC在25℃時的洩露電流與85℃或更高溫時的洩漏電流明顯不同。高溫下的洩漏電流可能是工業應用中的關鍵選擇標準,例如子計量表(Sub-metering),因為其需要在高溫下確保電池壽命。 在電池供電的終端產品中,該應用的另一個重要元素涉及所用電池技術的類型。電池供電給最新整合的低功耗藍牙SoC上DC-DC轉換器。使用DC-DC轉換器將顯著降低整個SoC的工作電流消耗。一些複雜的SoC可能整合獨立的DC-DC轉換器用於射頻和CPU。這種做法提供一種優化的解決方案,但此趨勢明顯只能有一個轉換器可極小化SoC的成本。 最後,需要瞭解如何使用晶片內外(On-chip/Off-chip)記憶體。低功耗藍牙終端節點的常見要求是執行軟體的空中下載(OTA)更新。根據傳輸影像的大小,外接快閃記憶體可能成本更低。但事實證明,其增加的功耗和潛在的安全問題可能比使用晶片內建快閃記憶體要高得多。OTA更新的詳細分析將有助於確定最合適的記憶體物料清單。 近年來,低功耗藍牙SoC大幅降低總工作電流消耗,同時保持了更低的深度睡眠電流。原因是矽技術從較大的幾何尺寸(0.18μm,90nm和65nm)轉移到了更優化的技術節點(55nm和40nm)。40nm製程與晶片內建DC-DC轉換器整合的結合,減少了SoC的總體電流消耗(圖1)。 圖1 合併晶片內建DC-DC轉換器的低功耗藍牙SoC範例 例如,當禁用晶片內建DC-DC轉換器而從晶片內建快閃記憶體運行Coremark時,Arm Cortex-M33 CPU要求54μA/MHz的功耗。當啟動相同的DC-DC轉換器時,相同的操作僅需要37μA/MHz的功耗。 在深度睡眠模式下,保留RAM至關重要,因為它是大部分功耗預算的來源,且當低功耗藍牙SoC必須返回到工作模式時,保留RAM可以加快啟動速度。從設計角度來看,低洩漏SRAM的使用能讓矽設計人員將深度睡眠電流保持在1μA的範圍內。選擇低功耗藍牙SoC的另一個關鍵考慮因素是每個SRAM的大小可能有所不同。選擇保留RAM大小的能力將有助於大幅減少深度睡眠模式下的功耗。如前述SoC在32KB的晶片內建RAM產品中即整合了可獨立選擇的SRAM。 最後,時脈門控和電源門控技術的結合使低功耗藍牙SoC可以根據其工作模式完全關閉設備的某些部分功能。這些功能的啟動是自動的,應用開發人員幾乎無法看到詳細的資訊。 軟體套件整合硬體設計 大幅減少低功耗藍牙應用的功耗,需要對無線電作業進行高度優化的調度,並在保持協定所需的精準時序中,大幅減少最低能耗模式下花費的時間。為了精確控制發射功率,低功耗藍牙堆疊整合DC-DC轉換器的配置。堆疊來自軟體發展套件(SDK),與整合式開發環境(IDE)結合。IDE包括一個網路分析儀,可直接從SoC無線電獲取資料。同時能量監控器將功耗與代碼位置相關聯,包含視覺化的GATT配置器,以實現標準藍牙SIG設定檔或自訂服務。這些工具允許開發與硬體設計完全整合的低功耗藍牙應用程式,使開發人員可以專注於選擇影響功耗的高階設計。此外,SDK整合了安全的引導載入程式,可支援OTA和序列介面以進行韌體更新。 先進硬體和強大軟體的結合,使得應用開發人員可以在多個裝置上執行自己的基準測試。這是在選擇低功耗藍牙SoC之前所推薦應採取的方法。雖然最初耗時較多,但這種方法已證明是非常有價值的,可協助發現因硬體功能短缺或軟體功能不佳所導致的潛藏挑戰。 標準化基準測試策略的開發還可以幫助開發人員對各個供應商的設備進行比較。嵌入式微處理器基準聯盟(EEMBC)開發的IoTMark-BLE基準設定檔,提供了評估功耗的有用工具,其建構了真實的IoT邊緣節點模型,由I2C感測器和經由睡眠、廣告和連接模式作業的低功耗藍牙射頻所組成。儘管IoTMark-BLE基準可能並不適合所有案例,但它可以成為各種適合的應用情境方案的開發基礎。 簡而言之,如果同時比較供應商的產品資料手冊,可能會導致代價高昂的誤解和錯誤陳述。在比較SoC中的板載和外部DC-DC轉換器模組時,低功耗藍牙SoC必須在系統層級上進行分析說明。透過協力廠商基準的比對,通常可以協助確認比較分析的真實樣貌。 (本文作者任職於Silicon Labs)
0

新興應用前仆後繼 GDDR/HBM高效能記憶體潛力大

在今日的資料經濟中,每天有極大量的資訊產生、被儲存和處理。資料產出的深入洞察可創造驚人的價值,並更進一步提升效率。記憶體科技的創新正是讓資料洞察從無到有的關鍵。本文旨在探討今日與未來市場對於高效能記憶體的需求,使讀者了解現階段的市場挑戰,以及高效能記憶體對於各種資料密集與頻寬密集型的應用均不可或缺的原因。 高效能記憶體市場趨勢/流變 AI、機器學習、深度學習、無人自駕車、高效能運算、虛擬實境、擴增實境等應用,使下一代遊戲不只是熱門詞彙。 這些應用的使用量大幅成長,皆需用到非常大量的資料—這些資料不僅量大,還必須被快速和重複分析,而占用極大的系統頻寬(圖1)。筆者相信,2020年是決定下一代高效能記憶體技術發展的關鍵年。 圖1 各領域針對資料使用量不斷上升 打造高效能記憶體系統 雖然專用於繪圖卡快速渲染之同步動態(Synchronous Dynamic)繪圖用雙倍資料傳輸率(Graphics Double Data Rate, GDDR)記憶體技術已發展多年,但本文僅探討2008年GDDR5出現後的進展。當年,市場需要以已知的設計方法和原料,以及可負擔的封裝方式,來提高記憶體的資料傳輸速率。GDDR5從512Mb開始、成長到8Gb的密度,最後達到每引腳8Gbps的最高資料傳輸效能。若要計算系統頻寬的話,以典型的繪圖卡配置(8顆元件、32位元介面)而言,每引腳傳輸速率8Gbps的GDDR5可提供8GB的訊框緩衝(Frame Buffer)與256GBps的系統頻寬。市場雖一度可以接受這樣的效能,但不久後便追求進一步提高頻寬。 2015年美光(Micron)與NVIDIA合作,在GDDR5X中導入JEDEC的創新標準,將每引腳最高的資料傳輸率增至12Gbps。之後的兩年期間,GDDR5X稱霸高階繪圖卡市場。例如NVIDIA Titan X(32位元介面、12顆元件、每引腳資料傳輸率11.4Gbps)的系統頻寬便達到547GBps。 或許,GDDR5X最重要的成果是,它奠定了GDDR6的框架。GDDR6於2018年秋季問世後,效能立刻在市場上顯現。當NVIDIA於2018年、AMD於2019年推出8Gb GDDR6時,美光為兩家公司的產品發布夥伴,滿足市場對高效能的需求。GDDR6現仍在產品預期生命週期的相對早期階段,目前,每引腳最大資料傳輸率為16Gbps。使用GDDR6的系統最高頻寬預計可達768GBps(32位元介面、12個元件、16Gbps的每引腳資料傳輸速率)。GDDR6不只是高效能的解決方案,也是適用於多種不同應用的成本優化方案(表1)。 講到高效能記憶體,就不免提到高頻寬記憶體(HBM)。HBM不但與運算元件緊密整合,還能同時降低功耗和拉高頻寬,填補記憶體方案的缺口。HBM透過堆疊記憶體元件提高密度,並以較低時脈達成較高的I/O數,進而提供高頻寬,並具備較低功耗。HBM是一種強大的高效能記憶體,但由於產品本身的複雜性,也是成本相對較高的方案,因此HBM鎖定需較高頻寬,且成本敏感度較低的應用(圖2)。 圖2 高頻寬記憶體運用堆疊的記憶體元件,達成高密度與高I/O數 GDDR與HBM是高效能記憶體市場中的關鍵產品,接著探討主要的市場趨勢。 新市場趨勢與應用層出不窮 在列舉高效能記憶體的應用時,遊戲(Gaming)通常是最先浮現腦海的應用。雖然遊戲的重要性不容小覷,但有些新興的市場趨勢與應用也讓繪圖產業的需求水漲船高(圖3)。 圖3 新興的市場趨勢與應用也讓繪圖產業的需求水漲船高 人工智慧/機器學習與GPU 繪圖處理器(GPU)過去多半僅用於遊戲領域。但是,隨著AI在各產業區塊的爆炸性發展,GPU已是創造價值和效率的利器。GPU普遍都需要高效能的記憶體。機器學習與深度學習訓練所用的演算法需執行複雜的數學及統計運算,而GPU已被證明可較CPU更快解決這些繁雜的計算。在討論AI時,必須區別推論(Inference)和訓練(Training)兩種不同的需求。AI訓練是運算非常密集的工作,系統頻寬越高越好。AI推論則較常見,對頻寬的要求低於AI訓練。訓練與推論都是未來不可或缺的一部分。兩者合併運用下,可創造出高品質的神經網路。GPU及其尖端記憶體正被應用於AI、機器學習和深度學習上,讓這些應用以人類所不及的準確度,解決更多真實世界的難題。 高解析度影片 下一個驅動高效能記憶體成長的是4K/8K內容。高階遊戲不斷推動繪圖技術在高解析度與回應速度上的創新突破(零延遲/零緩衝)。今日許多頂級的遊戲設備均搭載4K解析度,未來更將達到8K或更高解析度。專業的遊戲玩家常同時使用多台顯示器,其中不乏4K+的螢幕(因為工作負載高,對於繪圖卡與大訊框緩衝區的需求也會增加)。 由於影像解析度增加,視訊渲染未來仍需大訊框緩衝區與高頻寬。隨著媒體內容與遊戲的串流應用在全球日益普及,資料中心的資料處理能力也需日漸提升。 遊戲創新 雲端遊戲的運作仰仗資料中心。那些資料中心內的伺服器多搭載GPU,以優化效率。Google Stadia、NVIDIA GeForceNow、PlayStation Now與Microsoft Project xCloud都是近期出爐的一些新型雲端遊戲平台。雲端遊戲預計將快速成長,並持續推動創新。光線追蹤(Ray Tracing)是視覺繪圖領域中夢寐以求的技術。從光源追蹤光線及設計出逼真照明環境的能力,一直是繪圖產業在過去20多年間努力的目標。在NVIDIA和AMD最新的繪圖卡產品,以及即將上市的PlayStation 5與Xbox Series X遊戲機上,這種渲染技術終於落地。 PC遊戲正驅策遊戲市場中頂級規格的發展。由於PC可每年或更頻繁地更新硬體,專業玩家普遍偏愛PC遊戲。PC遊戲持續帶動繪圖功能強化(4K/8K、光線追蹤與可變速率著色),以及對於最高回應時間(最低緩衝/延遲時間)的需求。如上面關於高解析度影像的討論,專業遊戲玩家有時會同時使用多台最高規格的顯示器;在這樣的配置下,玩家需不斷更新系統,才能保持競爭力。 為了達到最佳效能,玩家傾向選用內建不只一張繪圖卡、而是搭載多張平行運作繪圖卡的遊戲設備。 AR/VR 無論在PC遊戲或主機遊戲的世界裡,虛擬實境(VR)都已是許多不同遊戲的熱門選項。從早期較簡單的型態開始,VR繪圖技術和功能現正突飛猛進,並滲透至諸多新領域中。隨著品質精進,遊戲將繼續以健康的速度成長,但更亮眼的成長將來自一些令人振奮的新領域。 在醫療產業中,VR和擴增實境(AR)都可望成為教育訓練的利器。目前,已經有些有趣的應用(運用AR)將虛擬物件融入真實環境,以輔助醫療教學。如美光繪圖卡解決方案不局限於遊戲領域,將觸角延伸到垂直產業,包括專業繪圖、高效能運算、車載應用與網路等。 建築、工程與建造是VR與AR顯而易見的下一波灘頭堡。對許多領域來說,能夠在實地參訪或建構實體建物前,先虛擬地「看到」或甚至遊覽某地或建築、並了解物件將如何與所在環境互動,前景都令人倍感期待;教育領域的VR與AR的應用可望大幅成長。與醫療訓練一樣,講師和專家在教學中也可運用虛擬物件、提供虛擬的範例和與虛擬元素互動。 高階AR與VR頭戴裝置需搭配強大的PC和繪圖卡,才能達到最高設備規格。HTC Vive Pro最低規格的顯卡是NVIDIA GeForce GTX 1060或AMD...
0

整合多階/類比記憶體運算 AI邊緣功耗難題迎刃而解

雖然使用者可以享受到這些AI應用帶來的益處,但同時仍有隱私、功耗、延遲和成本等諸多疑慮,這些疑慮便成為AI 應用的挑戰。如果有一個能夠從資料來源,執行部分/全部運算(推論)的本地處理引擎,那麼這些問題即可迎刃而解。傳統數位神經網路的記憶體存在功耗瓶頸,難以實現這一目標。為了解決此問題,可以將多階記憶體與類比記憶體內運算方法結合使用,使處理引擎滿足更低的毫瓦級(mW)到微瓦級(μW)功率要求,進而在網路邊緣執行AI推論。 雲端AI面臨隱私/功耗/延遲挑戰 如果透過雲端引擎為AI應用提供服務,使用者必須主動/被動上傳一些資料到雲端,運算引擎則在雲端處理資料並提供預測,然後將預測結果發送給終端用戶使用。以下概述資料處理過程面臨的挑戰(圖1): 1.隱私問題:對於Always-on、Always-aware設備,個人資料或機密資訊在上傳期間或在資料中心保存期限期間可能遭受濫用的風險。 2.不必要的功耗:如果每個資料位元都傳輸到雲端,則硬體、無線電、傳輸裝置以及雲端中不必要的運算都會消耗電能。 3.小批量推論的延遲:如果資料來自邊緣裝置,有時至少需要一秒才能收到雲端系統的回應。當延遲超過100毫秒時,人們便有明顯感知,造成不佳的用戶體驗。 4.資料經濟需要創造價值:感測器隨處可見且價格低廉,能夠蒐集大量資料,但是如果每筆資料都上傳到雲端進行處理的效益不高。 圖1 從邊緣到雲端的資料傳輸 要使用本地處理引擎解決這些挑戰,首先必須針對目標使用案例,利用指定資料集合對執行推論運算的神經網路進行訓練。這通常需要高效能運算和記憶體資源,以及浮點運算。因此,機器學習解決方案的訓練部分仍需在公共、私有雲或本地GPU、CPU和FPGA Farm上實現,同時結合資料集合來生成最佳神經網路模型。神經網路模型的推論運算不需要反向傳播,因此在該模型準備就緒之後,可利用小型運算引擎針對本地硬體進行深度優化。推論引擎通常需要大量乘積累加運算(Multiply Accumulate, MAC)引擎,隨後是啟動層,例如修正線性單元(ReLU)、Sigmoid函數或雙曲正切函數,具體取決於神經網路模型複雜度,以及各層之間的池化層。 大多數神經網路模型需要大量MAC運算。例如,即使是相對較小的「1.0 MobileNet-224」模型,也有420萬個參數(權重),執行一次推論需要多達5.69億次的MAC運算。此類模型中的大多數都由MAC運算主導,因此這裡的重點是機器學習計算的運算部分,同時還要尋找機會來建立更好的解決方案。圖2為一個簡單的完全連接型兩層網路。輸入神經元(資料)透過第一層權重處理。第一層的輸出神經元透過第二層權重處理,並提供預測,例如模型能否在指定影像中找到貓臉 。 圖2 完全連接的兩層神經網路 這些神經網路模型使用「點積」運算計算每層中的每個神經元,如下面的公式所示: Yi=∑i Wi Xi 〗 (為簡單起見,公式中省略了「偏差」項)。 在數位神經網路中,權重和輸入資料儲存在DRAM/SRAM中。權重和輸入資料需要移至某個MAC引擎旁以進行推論。根據圖3,採用這種方法後,大部分功耗都源自於獲取模型參數以及將資料登錄到實際發生MAC運算的ALU。從能量角度來看,使用數位邏輯閘的典型MAC運算消耗約250fJ的能量,但在資料傳輸期間消耗的能量超過運算本身兩個數量級,達到50皮焦(pJ)到100pJ的範圍。實際上,很多設計技巧可以大幅減少記憶體到ALU的資料傳輸,但整個數位方案仍受馮紐曼架構的限制。這意謂著,有大量的機會可以減少功率浪費。如果執行MAC運算的能耗可以從約100pJ減少到若干分之幾pJ,將產生什麼樣的可能性? 圖3 機器學習運算中的記憶體瓶頸 消除記憶體瓶頸並降低功耗 如果記憶體本身可用來消除之前的記憶體瓶頸(圖3),則在邊緣執行推論相關的運算就成為可行方案。使用記憶體內運算的方式,可以大幅減少必須移動的資料量,也就能消除資料傳輸期間浪費的能源。快閃記憶體單元運行時產生的主動功率消耗較低,在待機模式下幾乎不消耗能量,因此可以進一步降低能耗。 以Microchip子公司Silicon Storage Technology(SST)的memBrain技術為例,該解決方案奠基於SST的SuperFlash記憶體技術,這項技術已成為適用於微控制器和智慧卡應用的多階記憶體的公認標準。此解決方案內建一個記憶體內運算架構,允許在儲存權重的位置完成運算。權重毋需資料移動,只有輸入資料需要從輸入感測器,例如相機和麥克風,移動到記憶體陣列中,因此消除了MAC運算中的記憶體瓶頸。 這種記憶體概念基於兩大基本原理:一是電晶體的類比電流回應基於其臨界值電壓(Vt)和輸入資料,二則是基爾霍夫電流定律,即在某個點交匯的多個導體網路中,電流的代數和為零。瞭解這種多階記憶體架構中的基本非揮發性記憶體(NVM)位元單元也十分重要。圖4是兩個ESF3(第3代嵌入式SuperFlash)位元單元,帶有共用的抹除閘(EG)和來源線(SL)。每個位元單元有五個終端:控制閘(CG)、工作線(WL)、抹除閘、來源線和位元線(BL)。透過向EG施加高電壓執行位元單元的抹除操作,同時向WL、CG、BL和SL施加高/低電壓偏置訊號來執行程式設計操作,並且向WL、CG、BL和SL施加低電壓偏置訊號以執行讀取操作。 圖4 SuperFlash ESF3單元 採用這種記憶體架構,用戶可以透過微調程式設計操作,以不同Vt電壓對記憶體位元單元進行程式設計。記憶體技術利用智慧演算法調整記憶體單元的浮柵(FG)電壓,以從輸入電壓獲得特定的電流回應。根據最終應用的要求,可以在線性區域或閾下區域對單元進行程式設計。 圖5說明了在記憶體單元中儲存多個電壓的功能。例如,如果要在一個記憶體單元中儲存一個2位元整數值,需要使用4個2位元整數值(00、01、10、11)中的一個,進行記憶體陣列中,每個單元的程式設計。此時需要使用四個具有足夠間隔的可能Vt值之一,對每個單元進行程式設計。圖5的四條IV曲線分別對應於四種可能的狀態,單元的電流回應取決於向CG施加的電壓。 圖5 ESF3單元中的程式設計Vt電壓 受訓模型的權重透過程式設計設定為記憶體單元的浮柵Vt,因此,受訓模型每一層,例如完全連接層的所有權重,都可以在類似矩陣的記憶體陣列上進行程式設計(圖6)。對於推論運算,數位輸入,如數位麥克風,首先利用數位類比轉換器(DAC)轉換為類比訊號,然後應用到記憶體陣列。隨後該陣列對指定輸入向量並存執行數千次MAC運算,產生的輸出隨即進入相應神經元的啟動階段,隨後利用類比數位數轉換器(ADC)將輸出轉換回數位訊號。然後,這些數位訊號在進入下一層之前進行池化處理。 圖6 用於推論的權重矩陣記憶體陣列 這類多階記憶體架構模組化程度非常高,而且十分靈活。許多記憶體晶片可以結合在一起,形成一個混合了權重矩陣和神經元的大型模型(圖7)。在此案例中,M×N晶片配置透過各晶片間的類比和數位介面相互連接。 圖7 memBrain的模組化結構 截至目前,文章主要討論了該架構的晶片實施方案。提供軟體發展套件(SDK)可幫助開發解決方案,除了晶片外,SDK還有助於推論引擎的開發。SDK流程與訓練框架無關。用戶可以在提供的所有框架,包含TensorFlow、PyTorch等框架中,根據需要使用浮點運算創建神經網路模型(圖8)。創建模型後,SDK可協助量化受訓神經網路模型,並將其映射到記憶體陣列。在該陣列中,可以利用來自感測器或電腦的輸入向量執行向量矩陣乘法。 圖8 memBrain SDK流程 多階記憶體方法結合記憶體內運算功能的優點包括: 1.較低功耗:專為低功耗應用設計的技術。功耗方面的第一個優點是,這種解決方案採用記憶體內運算,因此在運算期間,從SRAM/DRAM傳輸資料和權重不會浪費能量。功耗方面的第二個優點是,快閃記憶體單元在臨界值模式下以較低的電流運行,因此主動功率消耗非常低。第三個優點是待機模式下幾乎沒有能耗,原因是非易失性記憶體單元不需要任何電力即可保存始終開啟設備的資料。這種方法也非常適合在權重和輸入資料的稀疏性時加以利用,如果輸入資料或權重為零,則記憶體位元單元不會啟動。 2.減小封裝尺寸:該技術採用分離柵(1.5T)單元架構,而數位實施方案中的SRAM單元基於6T架構。此外,與6T SRAM單元相比,這種單元是小得多。另外,一個單元即可儲存完整的4位元整數值,而不是像SRAM單元那樣需要4×6=24個電晶體才能實現此目的,從根本減少晶片上占用的空間。 3.降低開發成本:由於記憶體效能瓶頸和馮紐曼架構的限制,很多專用設備,例如NVIDIA的Jetsen或Google的TPU,趨向於透過縮小幾何結構提高每瓦效能,但這種方法解決邊緣運算難題的成本卻很高。採用將類比記憶體內運算與多階記憶體結合的方法,可以在快閃記憶體單元中完成晶片運算,這樣便可使用更大的幾何尺寸,同時降低掩膜成本(Mask Cost)和縮短開發週期。 邊緣運算應用的前景十分廣闊,然而,首先需要解決功耗和成本方面的挑戰,邊緣運算才能得到發展機會。使用能夠在快閃記憶體單元中執行晶片上運算的記憶體方法,可以消除主要障礙。這種方法利用經生產驗證的公認標準類型多階記憶體技術解決方案,且此方案已針對機器學習應用進行優化。 (本文作者為Microchip嵌入式記憶體產品開發總監)
0

電流監測/記錄準又穩 藍牙電表設計便利/耐用兼具

  而一般常見的數字萬用電表中,萬用代表多功能,電表的設計原理以基本電學V(電壓)=I(電流)×R(電阻)為理論依據。儀器與測量在現今社會科學普及的情況下越來越重要,研發人員的學習歷程以數字電表為入門,開始鑽研電子、電力、元件、溫度等測量概念,將測試的結果量化顯示,並且透過無線通訊傳輸紀錄與分析。此外,研究人員藉由實驗過程累積經驗,實現量測為設計之母的學習目的,有助於培育工程人才。 以OWON推出的掌上型藍牙數位電表為例,在數位化的需求下,為了增加學生、工程師或是研究人員在資料儲存的便利性,以及應對工作中常見的複雜測試情況,測試產品的某個參數時,需同時監測其他關聯指標。此產品在2015年4月由OWON基礎量測儀器商設計發表第一代藍牙電表B35,之後陸續推出B41/W16/OW18等藍牙與非藍牙兩種形式的數位電表(圖1)。 圖1 傳統三用電表(左)與藍牙多功能數位電表(右) 數位電表具靈活性且易於使用 新款數位電表有電壓、電流、電阻、溫度、二極體、電容、週期/頻率以及非接觸電壓量測等多種量測功能,同時有螢幕背光/LED以及藍牙資料傳輸通訊介面,可透過手機/平板App或者專用USB線與NB/PC連線(圖2)。大幅提升多機一體的量測功能性,顧及攜帶方便性以及紀錄資料實用性,滿足使用者多種環境的測試需要。而電表稱為基礎儀表,一直以來在使用上是最入門的電學量測工具。 對於新款的藍牙電表,需要讓使用者理解如何快速使用藍牙連線,因此團隊製作QRcode與說明書在包裝盒內,同時提供影片教學,使得使用者輕鬆上手。 圖2 數位電表透過LED以及藍牙資料傳輸通訊介面,可用於手機/平板APP或者專用USB適配器與NB/PC連線 多功能電表減輕電流監測負擔 就數位電表的實際使用經驗,以產品測試工程師Iwait.Lee的工作情境為例,可以應用在一些相對複雜的測試情況,測試產品的某個參數時需同時監測其他關聯指標。例如在一個電源產品上測試某個取樣電阻Rs上的電流以及溫度隨時間變化情況,Iwait.Lee需要一台電流表監測電流,同時使用一台溫度表或者紅外溫度測試儀測量溫度,而且還需開啟手機的碼表功能計時。開始測試時,碼表開始計算時間,10秒、20秒、30秒過去,還需要另外準備好紙和筆,記錄每個所需時間點的電流、溫度。若是一個人記錄、讀取兩個儀器的數值、並且查看時間,稍有疏忽測試資料就有偏差。 然而若是改用藍牙萬用表,Iwait.Lee僅需要2台B35和OWON免費的App。一台B35用來測量電流,另一台用來測量溫度,然後打開手機App,設置好取樣間隔時間10秒,再打開被測系統。透過數位化的量測技術,Iwait.Lee可以等到測試時間一到,關閉被測系統,直接查看手機測試資料,而且可以將這些資料選擇合適的格式保存起來或者分享出去,減少工作負擔。 電表設計趨向準確/耐用 數位電表基本的功能是穩定、準確且不易損壞,必須注意以下設計重點。 ·準確度:解析度/位數Counts 1.萬用表的每個檔位元測量時對小訊號的分辨能力,量程越密就可以越靈敏地呈現被測訊號的變化(圖3),例如在220mV檔位設定,可以將量到最小的電壓解析為0.01mV。 圖3 解析度/位數COUNTS表 (資料來源:國家儀器NI) 2.Counts位數:比如選用B35/6位元的數位電表,最大顯示數位為5,999,解析度為量程的6,000分之一,同理Counts數越高解析度越高,可量測的訊號變化越細微。 3.準確度就是在特定條件下測量數值與真實數值的最大誤差。數位萬用表的準確度通常用讀數的百分比表示。準確度為讀數的1%,如果測量數值是100V,則實際顯示數值可能是99V和101V之間的任何數值。技術參數包括加到基本精度參數上的一位範圍(最後一位)。 耐用度20A保險絲與左邊的mA檔的自恢復保險(圖4),產品耐用度高於w同級產品的10A。 圖4 產品內部圖,中央HD500為保險絲,左側ㄇ字型零件為自恢復保險桿 藍牙電表的設計理念,即是減少使用者在資料紀錄與儲存上花費時間、精力與大筆的金錢來完成一件可以輕鬆完成的事情。用戶只需要: 1.下載App連線 2.啟用離線紀錄 3.下載圖檔或者csv的紀錄(圖5) 圖5 藍牙電表可快速記錄/儲存資料 即可簡單輕鬆完成資料紀錄,並繼續下一個實驗或者分析、報告(圖6)。 圖6 藍牙電表可快速記錄/儲存資料 藍牙電表兼具操作/讀取便利性 研發藍牙電表有一個很重要的關鍵,在於協助使用者遠離危險的環境,因此無論用戶的身體大小,姿勢或活動性如何,電表的設計上都為接近、觸及、操控和使用的情境提供了適當的大小和空間。 若將電表結合藍牙的即時傳輸和記錄,在很多工作中增進用戶體驗,包含高電壓、高溫、粉塵氣體等高污染有毒、有害的地方,以及操作空間狹小、觀察位置彆扭等不方便人工即時讀取、記錄的環境,藍牙遠端測量和記錄的功能就可展現出它的優勢。 (本文作者為OWON資深工程師)
0

電大尺寸問題分析不易 先進求解技術滿足5G模擬需求

宏觀/微觀都需考量 混合求解勢在必行 電尺寸的大小,是指電磁領域中的幾何尺寸與工作波長的比值。當物理尺寸遠大于電波長時,如10個波長、100個波長以上,一般就稱之為電大尺寸問題。電尺寸再增加到上千個波長,則可視之為超電大問題。 但在進行5G模擬時,不僅要考慮電尺寸的大小,同時也要考慮到幾何細節結構。因此,5G模擬不僅是個電大尺寸問題,同時也是個電大尺寸複雜問題,亦即待求解的問題不僅僅是一個電大尺寸或超電大尺寸的幾何規模問題,同時還存在複雜的幾何細節結構問題。這意味著模擬工程師要選擇一個適用於大規模問題求解的演算法,同時還要具備複雜問題的精確計算能力。這種情況下面臨的難點與挑戰主要有: ·單一的電磁演算法無法解決電大尺寸與複雜細節並存的問題 ·傳統的網格剖分技術無法應對龐大且複雜的幾何細節 ·大規模問題的求解,需要高效的平行運算技術與匹配的運算能力 為克服這些挑戰,採用可以結合各種演算法優勢的混合求解法,是必然的選擇。如利用有限元演算法(FEM)對於天線類複雜問題進行精確求解,積分方程法(IE)對於電大尺寸金屬體的電流映射求解,彈跳射線法(SBR)對於超電大尺寸問題的高頻近似求解等。通過幾種演算法的自由組合,可以恰到好處地解決電大尺寸複雜問題的演算法難點。 三維電磁場模擬軟體HFSS恰巧具備上述多種演算法的天然優勢,其內建的主要演算法模組包括有限元演算法、積分方程法、彈跳射線法、物理光學法(PO)及時域演算法。除了時域演算法以外,其他演算法借助於DDM域分解並行技術,均可同時應用於同一個問題或模型的求解,即混合演算法的協同模擬模式(圖1)。 圖1 HFSS混合演算法求解器 高效網格剖分技術縮短作業時間 電磁模擬軟體的不斷進步,離不開電腦技術的高速發展。若要將複雜的電磁模型,描繪出可以讓電腦識別並自動計算的語言,則離不開數值計算與離散化的網格模型。HFSS電磁模擬軟體支援強大的自我調整網格剖分技術,以自動化與精確化的特點,在模擬領域廣為人知。 HFSS軟體2019 R2版本中,推出了新型的Flex Mesh技術(圖2),可以極大的提高初始網格的劃分效率,降低演算法對模型幾何體品質的要求,從而大大縮短了大尺寸複雜模型的模擬時間,節省了工程師花費在修模型、簡化模型的大量工作,解決了傳統的單核網格劃分在應對大尺寸複雜模型時的低效率、高耗時問題,如複雜多層饋網的大型微帶陣列天線、大型複雜載體的多天線布局等。 圖2 新型Flex Mesh技術 多樣化的平行計算 HPC高性能計算,是所有ANSYS軟體並行技術的統稱。隨著大型叢集運算技術的不斷發展,ANSYS軟體的平行計算也在逐步改善與進步。 HFSS電磁模擬軟體目前支援的平行求解有多執行緒的共用記憶體式計算、分散式記憶體的矩陣計算、區域分解法的平行計算、GPU加速等。 另外,還有一種叫作DSO的任務分散式加速技術,可以實現頻率掃描的多頻點平行模式,以及參數掃描與優化中的多參數平行模型。DSO可以大大加速在頻掃與參掃等多工求解問題,充分利用硬體資源,進一步為設計探索提供更有利的高效加速計算。 圖3 HPC平行處理技術 合理的硬體資源配置 在進行大規模模擬問題的求解時,硬體資源配置(圖4)是實現軟體高效平行計算的最終執行體。根據模擬軟體的計算特點,配置合理的硬體計算資源,是實現大規模問題的高效率計算的前提,也是資源利用最大化、節省成本必不可少的關鍵。 圖4 硬體設定示意圖 HFSS軟體在網格剖分、自我調整反覆運算、頻率掃描、參數掃描等一系列的求解過程中,對硬體資源中的CPU、記憶體、硬碟、顯存、網路等的依賴度,理論上,當然是所有的硬體指標都越高越好,但是,如果預算有限,非要取捨的情況下,建議按照以下的優先順序考慮:首先是CPU頻率、其次是CPU數量,然後是記憶體、固態硬碟、機械硬碟、獨立繪圖記憶體、高速網路。值得注意的是,硬體配置需要均衡,因為問題的有效求解,是硬體資源整體平台的能力,不是某個單一元素的能力決定。 在同等求解規模,且資源足夠的情況下,單機求解通常要快於多機求解,工作站的求解速度也比叢集式超級電腦。具體原因主要是網路的資料傳輸問題,以及叢集式電腦的CPU因多核散熱問題,時脈通常都比較低,約在2.2到2.8GHz左右。作為對比,工作站所使用的CPU,目前時脈最高已超過4.0GHz。所以,要採用多機平行處理或使用叢集平台運算的話,一定要配置高速率的交換機或路由,以及高規格的網路等。 典型場景下的模擬詳解 高頻電磁場模擬在5G應用的開發過程中,主要集中在天線布局、訊號覆蓋與場景感知三大領域,以下將簡單介紹在進行這三大類模擬作業時,工程師所遇到的挑戰,以及如何解決問題的方法。 天線布局 將天線裝載到一定的應用環境或場景中,分析載體或環境因素對天線性能指標的影響,驗證天線設計指標是否真正滿足實際需要;並根據模擬或測試結果,調整天線的安裝位置,尋求最佳天線性能的布局方案,稱之為天線布局和優化設計,如機載天線布局、車載天線布局、星載天線布局等。 天線布局分析關注的仍是天線本身。遇到這類問題,我們首先要考慮的,不是天線的載體或環境有多複雜,多徑效應多難分析,模擬規模有多大等,而是我們設計的天線,究竟屬於哪種類型,電尺寸大小如何,敏感度如何,是否容易受到環境干擾。 在進一步討論這個問題之前,必須先對「電小天線」(圖5)的定義進行說明。所謂電小天線,主要指天線的最大幾何尺寸遠小於工作波長的天線。一般來說,天線的最大幾何尺寸若小於工作波長的1/10或1/(2π),就屬於電小天線範疇。電小天線的種類很多,如手機天線、耳機天線、手錶天線、Wi-Fi天線、GPS天線、北斗導航天線等。 圖5 智慧手表內建的天線,是電小天線的典型案例之一  許多工程師可能都遇過電小天線模擬結果不準確的情況,甚至有電小天線「模擬無用」這種極端的說法。會導致電小天線的模擬結果跟實際狀況出現顯著誤差,關鍵原因在於天線設計好之後,裝載到手機、電腦等終端設備上時,性能曲線會「大變臉」,導致原本的天線設計變得毫無用處,不得不用現場「手術」或「切銅皮」的方法來補救。許多熟悉這些工作的資深工程師,也因而成為同事口中的「銅皮大師」或「一刀切」高手。 而其根本原因還是在於電小天線的“小”和敏感變高等。相比於天線的載體或工作環境,天線的尺寸遠小於波長;而載體或環境中的某個金屬結構,反而更接近於工作波長,更易諧振於工作頻率。再考慮到電小天線的方向圖,都屬於類似於蘋果型的全向型,易受干擾,敏感度高。 所以,電小天線布局問題的解決方法,就是把載體與工作環境,當做天線的本身進行一體化設計,在設計天線的時候,就充分考慮天線的PCB結構、殼體、人體模型等環境因素的影響(圖6)。 圖6 遇上搭載小尺寸天線的應用時,工程師不宜只針對天線進行模擬,還必須把天線所處環境,甚至人體的影響一併納入模擬考量中 而天線陣列的布局分析,與電小天線正好相反。由於陣列天線的「地」夠大,陣列元素也多,方向圖波束一般都很窄,容易受到環境影響的因素不多或很少。這樣一來,載體或環境因素對天線本體的性能影響,是非常有限的。 天線布局分析,也僅僅是一種驗證的流程而已。例外的情況也有,主要是天線近場區加裝天線罩問題,如汽車雷達天線罩加上保險桿的模擬等。 信號覆蓋 天線設計完成後,評估其在具體的工作環境中,天線發出電磁波信號的有效覆蓋範圍。如5G領域的基站天線信號覆蓋、星載導航天線的地面覆蓋範圍等。 信號覆蓋問題的分析,關注的不再是天線本體,而是電磁波從天線發出後,到達目的地區域的信號衰減,哪些是在可允許範圍內,哪些超出了這個範圍。 這類超大尺寸問題的模擬分析,全波演算法不再適用,而要借助純光學求解器SBR+。目前SBR+求解器已整合在HFSS軟體,可用于求解天線布局、汽車無人駕駛場景模擬等。 對於一個暫態手機信號訪問量巨大的公共場所來說,如體育場,在常規的基站覆蓋條件下,GSM網路通信的暫態傳輸速率是遠遠不夠的。因此,對於新型的智慧體育場(圖7)來說,有效動態覆蓋的智慧小基地台組合,是一個不錯的解決方案。圖7的案例即是利用ANSYS電磁軟體HFSS中的SBR+技術,進行小基站動態覆蓋的模擬驗證,以滿足最小組合配置的前提下,動態覆蓋效果實現最佳。 圖7 利用HFSS中的SBR+技術,模擬小型基地台對體育廠內手機信號覆蓋的改善效果 另外,除了滿足手機信號傳輸規模以外,更高效的Wi-Fi網路信號覆蓋,是解決公共場所更大規模資料傳輸的必要手段。圖8是智慧體育場Wi-Fi網格布局優化與信號覆蓋的模擬驗證,主要考慮的是,在兩個Wi-Fi天線正常工作的情況下,設計出Wi-Fi信號對下方照射區的信號覆蓋最大化,而且不能產生盲區。 圖8 智慧體育場的Wi-Fi布局優化與覆蓋 場景感知 接收並檢測天線發射電磁信號的回波資料,通過一定演算法識別或感知場景中的目標特性資訊。如雷達散射截面積RCS與ISAR成像、無人駕駛中的微波場景成像等。 ANSYS HFSS軟體從2018.0版本開始,內建的SBR+求解器就開始應用於RCS模擬。主要針對多金屬結構體或帶塗覆層的金屬體,只要在HFSS建模環境下,設置目標體為SBR-Region,即可進行快速的RCS求解與腳本成像。由於SBR+求解器,依賴於光學射線的彈跳計算,不進行網格反覆運算,對於RCS問題的求解相當快捷。 而自2018.2版本以後,HFSS軟體新增加了SBR單獨的模擬環境,可以建立理想的天線源,也可以導入模擬好的天線方向圖結果,進行道路場景的動態參數掃描與頻率掃描分析。然後通過腳本功能進行IFFT變換為時域資料,得到ISAR、Range Profile、Water Fall、Range Doppler等成像結果。 模擬作業必須選擇最適方法 5G應用場景中的天線布局、信號覆蓋以及場景感知等電大尺寸問題的求解,也要看具體的問題來選擇合適的流程與方法。這裡主要從天線布局、信號覆蓋、場景感知等應用角度,給出了一些模擬的建議與軟體的解決思路探討,供各位業內同仁參考。 (本文作者任職於Ansys)
0

整合感測/通訊量測體重 計重檯秤系統成就智慧養殖

因此,在民以食為天的基本民生需求下,若沒有從「食」的來源端來管控或是有一套智慧生產的方式協助的話,飲食的問題就會變成不斷上演食物供需失衡的民生問題。而透過智慧農業的切入,將可逐步改善因天候或是人為所導致的各種問題。加上政府致力於智慧農業的導入與建立,以及大量大數據資料的分析與應用,可望逐漸降低不斷從產品生產過程或民生需求所產生的問題。換言之,在智慧農業中,用來量測飼養的家禽或水禽重量的應用於智慧農業之智慧型計重檯秤系統,就有其被開發的需求。 近年全球人口越來越多,糧食的需求也慢慢增加,同時受到氣候變遷所導致的極端氣候及鄉村人口老化、少子化的影響,導致農牧業人力減少許多。因此,政府開始推動智慧農業,結合無線通訊科技進行資料的蒐集,透過資料的整合及分析,減輕農場作業負擔及降低勞動力需求,建立更有效率的農場經營。其中,關鍵元素與作法包括制定相關農業科技策略,發展農業科技技術跨域整合之創新農業技術,重視農產品衛生安全與營養需求,並運用物聯網(IoT)、雲端運算(Cloud Computing)與大數據(Big Data)等技術,進而提升產品附加價值。 文中將說明整合紅外線觸控框(IR Multitouch)介面與具備RS-232串列介面的傳統計重檯秤裝置,該裝置運用邊緣運算的概念,精準地擷取與收集禽隻的數量與正確體重。最後,再將禽隻的體重與數量結果透過NB-IoT無線通訊模組傳送至網頁上,並紀錄每天禽類體重長成的過程,以了解如何孕育出最佳飼料轉換成禽隻體重的最佳養殖環境。 解決台灣養殖體重測量痛點 製做本系統的目的,是針對國內本土環境所提出的應用。透過智慧禽舍採用的智慧型計重檯秤系統,可以針對不同生長周齡的禽隻進行適合其生長的重量擷取與分析,並將環境綜合資訊及參數收集於資料庫,進行分析與經驗數據累積,提高飼養管理效率與品質,並有效節省人力,邁向智慧化生產與管理。 台灣正在邁向智慧養殖,會使用智慧禽舍來監控家禽或水禽的生長環境與飼養過程。其中,最難收集到的數據就是家禽或水禽的成長體重,因為無法固定禽類的動作與位置,使得禽類的重量數值僅能估算或是常出現誤差值。因此本裝置利用紅外線多點觸控取代影像辨識,來計算禽類的數量,可更準確且方便的偵測禽類的數量。一般影像辨識都需要經過較繁瑣的演算法與軟體分析,技術性較高且花費時間多,還會因為光線等外在因素導致判斷錯誤。而改用紅外線觸控框介面,則可以更快速且方便的取得數量,同時搭配計重檯秤取得重量數據後,即可上傳至網路,農場主人便能隨時隨地查看禽類的生長曲線。 此外,此裝置亦內建各種禽類的成長曲線表,確認所擷取的體重是否超出標準值的上下限,進而確保系統收集到準確的禽類體重。由於不同禽隻類型的成長重量曲線不一樣,因此可以運用指撥開關來設定所飼養的是否為家禽(雞)或水禽(鴨),進而達到智慧化傳統計重檯秤的目標。 紅外線感測取得精準數據 在應用於智慧農業之智慧型計重檯秤系統設計中,使用Holtek HT66F2390微處理器為核心。其中,主要利用紅外線觸控框取得感測資料,再使用NB-IoT模組將資料存入資料庫,供網頁監看與使用。 UART串列介面 UART是一種通用非同步收發傳輸器,通常稱作UART,其為將資料由串列通訊與並列通訊間傳輸轉換。UART通常用在與其他通訊協定(如EIA RS-232)的連結上。在串列傳輸通訊協定的格式內容中,是由四種資料共11個位元所組成,共分為起始位元(Start Bit)、資料內容(Data)、奇偶同位元檢查碼(Priority Bit)、停止位元(Stop Bit)。 如圖1所示,資料透過FIFO(First Input First Output)的方式,由最低有效位元(Least Significant Bit, LSB)開始傳輸直至最高有效位元(Most Significant Bit, MSB),奇偶同位元(PB)可以選擇忽略不使用。在此系統利用計重檯秤 (DHBH-W)的UART串列介面,讀取磅秤上的重量,並以UART將資料傳輸至微處理器解析。最後,再透過NB-IoT無線通訊模組(SIM7020E),以UART做初始化,並將處理後的資料透過NB-IoT無線通訊模組上傳至MQTT伺服器。 圖1 UART資料傳輸格式示意圖 USB通訊協定/人性化介面 由於紅外線觸控框為USB HID人性化介面裝置。因此,須了解USB協定的基本原理。在USB完整的通訊協定中,包含了USB封包、傳輸類型、描述元、裝置要求、群組等USB規格書中相關的協定。唯有遵循此協定,才能執行USB周邊裝置與PC之間的資料傳輸與命令的設定。如下圖2所示,顯示了USB主機端如何與裝置執行通訊協定的傳輸格式。從圖2中,也可看出一個通訊協定所需包含的各種封包與各類型欄位。 圖2 標準USB控制型傳輸 在USB的傳輸中,因不同周邊裝置的類型與應用,訂定了四種的傳輸類型,分別是控制型傳輸(Control Transfer)、中斷型傳輸(Interrupt Transfer)、巨量傳輸(Bulk Transfer)以及等時型傳輸(Isochronous Transfer)。其中,需要特別注意的是慢速裝置僅支援控制型傳輸與中斷型傳輸而已。在USB裝置中,則針對不同裝置的應用特性,個別地執行中斷傳輸、巨量傳輸或等時傳輸。 而USB...
0

強化天線效能/抗干擾演算法 雙模滑鼠多工切換減干擾

無線電腦輸入裝置如鍵盤、滑鼠等等在日常生活中可以說是必備的裝置。這些無線裝置通常依賴藍牙或是無線Dongle模式來達到無線操作,被使用的無線協定雖然都能達到無線傳輸的目的,但在不同使用領域內,使用者的需要卻大大不同。 如在商辦環境下,若使用者需要在多台電腦上以同一支滑鼠進行控制與操作,在藍牙模式下進行這項操作就會變得困難,因為各台電腦都在發射藍牙訊號,嘗試與滑鼠連接,因讀者一定都先配對過了,但滑鼠又沒有螢幕可以選擇要連接哪台電腦,最終就會造成要關閉其中一台電腦的藍牙功能來達成多台電腦控制,讓讀者真的花很多程序來達成多工。為了滿足這個需求,有廠商就推出雙模的無線滑鼠。透過藍牙與Dongle模式在滑鼠上能夠自由切換,便解決了上述問題(圖1)。 圖1 Dongle與藍牙模式切換達到多工目的 另一種使用領域是現在很熱門的電競產業。這類型的使用者要求的是極高的滑鼠靈敏度及反應速度,這時候若是使用藍牙模式,大部分都無法滿足這種高強度的傳輸要求。其原因是藍牙透過USB HID規範下回報的速率不夠高,需要跳脫此規範來達成。此時需要搭配廠商自行設計的驅動程式,才能夠正常使用滑鼠,所以讀者會發現無線電競滑鼠幾乎都使用獨立的Dongle來實現此規格(圖2)。 圖2 市售電競滑鼠常使用Dongle達到高強度傳輸規格 以下來討論無線滑鼠的共存表現。如第一段所提到的使用場景,無論是在辦公室環境或是在電競比賽現場,在整個環境中一定充斥著各類無線干擾。根據百佳泰實驗室的無線測試經驗,本文將2.4GHz無線共存的問題,對於無線滑鼠可能造成的影響,歸納了下列狀況: ·滑鼠游標移動過程中產生停頓 ·滑鼠操作直接失效 對應到這些問題,即使滑鼠本身有使用藍牙跳頻機制或是Dongle模式下由廠商自身開發的跳頻演算法,但其真的有辦法抵抗干擾嗎?能夠保證讀者的簡報過程順利,或是在電競戰場上贏得比賽?這些連線問題會造成不良的用戶體驗,使用者在網路銷售平台上給予負評回覆,如此除了影響到產品的銷售表現,也讓其他消費者對於品牌產生負面的印象。 以上這些無線共存問題,將透過本篇文章的3個段落「環境架設」、「工作表現判斷基準」、「實際測試結果」,來比較市售兩款商用的雙模無線滑鼠在無線訊號干擾情況下的問題和劣化(圖3)。 圖3 市售兩款雙模無線滑鼠 無線滑鼠測試環境架設 所有的雙模無線滑鼠測試項目都會在電波隔離室中進行,如此隔絕外界電波干擾的因素,進而得到穩定的測試結果。另外在測試過程中為了要分析在干擾情境下雙模無線滑鼠的表現,搭配滑鼠游標移動治具,來執行定性定量的移動並記錄回報頻率(Report Rate, RR)數值與游標軌跡,如此精確且即時的量測結果,有利於後續結果的分析及討論,整體架設如圖4所示。 圖4 雙模無線滑鼠無線共存測試架設圖 在模擬不同場域的干擾測試情境,各種場域中會有幾種不同的干擾情境考量,如不同無線通訊技術(Wi-Fi及藍牙)、不同通訊裝置的數量,訊號密集度不同(高速或低速技術)都將透過實驗室模擬出來進行測試對比。 現在以實際架設各種場域中常見無線產品為例,如透過藍牙喇叭、Wi-Fi無線路由器、智慧型手機等產品互相通訊來製造流量,控制其頻譜使用狀況及頻道使用率來模擬不同場景。 雙模無線滑鼠工作表現判斷基準 本文提供的無線共存測試判斷基準是以滑鼠回報的Reporting Rate及滑鼠游標移動的順暢度作為判斷依據,檢測的項目為下列兩項: ·Reporting Rate監測 一般無線滑鼠的Reporting Rate大多在125Hz,但在共存干擾影響時,若其數值降低至100Hz以下,使用者會感覺到滑鼠控制或反應能力變差。 ·游標移動軌跡監測 除了RR的表現,本文也將以影片紀錄的形式來監控游標移動的平滑度,觀察使用者實際使用時可能感受到的困擾。 RR/游標移動監測實際測試結果 本文以D、L兩間廠商的雙模無線滑鼠進行驗證,並藉由圖5來看當干擾情境惡化帶來的影響。圖中的X軸為干擾條件、Y軸為Reporting Rate的變化,基本上RR數值越高越好。 圖5-1 Reporting Rate測試結果 圖5-2 Reporting Rate測試結果 ·Reporting Rate監測 無論是在藍牙或Dongle模式測試結果中,可以觀察發現當增加干擾數量時,L廠商的滑鼠在一個Wi-Fi干擾情境下已經發生RR下降的情形;相對而言,D廠商的滑鼠還能維持在125Hz左右;當干擾數量再增加至3個Wi-Fi干擾情況時,L廠商的滑鼠RR急遽下降到只有40Hz,但D廠商的滑鼠依舊持續保持在100Hz以上。最後增加到5個Wi-Fi干擾與3個藍牙干擾同時發生,兩個滑鼠RR差距越來越大。 ·游標移動表現監測 那L廠商的滑鼠的實際用戶體驗於上述幾個干擾情境下會是怎樣的表現呢?以下透過圖6、7與8來說明。圖6為無干擾情況,可以看到游標移動非常順暢,過程中沒有任何停頓(注意游標殘影)。但在3個Wi-Fi干擾狀況(圖7)已經發現有點不順暢的現象;最後在5個Wi-Fi干擾與3個藍牙干擾(圖8)同時發生的情況下,可以明顯看到游標移動發生不連續或是頓點的現象。這時的使用者體驗一定是不好的,可能這時候用戶已經有要退貨的心理準備。圖9是D廠商在與圖8相同條件下的游標表現,可以發現有稍微不平滑,但還是可以保持在使用者可以接受的範圍內。 圖6 L廠商在無干擾下的滑鼠表現 圖7 L廠商在3個Wi-Fi干擾下的滑鼠表現   圖8 L廠商在5個Wi-Fi與3個藍牙干擾下的游標表現 圖9 D廠商在5個Wi-Fi與3個藍牙干擾下的游標表現 各方多管齊下解訊號干擾難題 總結以上Reporting Rate與游標表現測試結果,得知D廠商的的雙模無線滑鼠在無線干擾的情況下,仍能保有較佳的工作表現。至於兩間廠商的無線滑鼠為何會有如此大的差異?本文推測可能有以下幾點可能: ·滑鼠本身天線效能差異 ·無線發射模組輸出功率高低不同(但也需考慮電池壽命) ·Dongle模式下抗干擾演算法有無優化 如何驗證產品在現今2.4GHz訊號擁擠頻段中的操作性,已經是周邊廠商開發的重心,越來越多廠商都在腦力激盪透過硬體、韌體或驅動軟體來確保無線滑鼠能夠正常工作。 在無線產品越來越多的情況下,無線共存的問題只會越來越被市場重視,測試實驗室了解這個需求,如百佳泰為客戶品質把關,從關注使用者體驗,到多樣化的干擾情境場域設計,協助讀者在後續強化自己的產品,讓使用者在實際環境中得到更佳的使用體驗,並提升產品的市場競爭力。與此同時,本文藉由雙模無線滑鼠作為測試案例,測試其在無線共存環境下的使用效能。 (本文作者為百佳泰無線驗證實驗室主任工程師)
0

提高成本效益 8-bit MCU簡化CAN汽車應用

CAN滿足汽車資料傳輸需求     傳統的CAN通訊以事件為基礎,允許微控制器和專用積體電路(ASICs)在應用中直接相互通訊,採無主機設計。CAN經過半導體公司整合後,大規模地降低了成本,並且能夠與更多汽車系統相容。自2000年初以來,8位元MCU也導入了CAN協議。2015年最先推出的8位元MCU設計方案加入核心獨立周邊(CIP),新問世的8位元MCU系列能夠解決CAN應用上許多系統的問題。 除了成本效益高之外,CAN的成功還可以歸功於其穩健性、可靠的資料傳輸,以及易於實現的特性。毫無疑問,除了成本效益極高之外,8位元MCU還具有上述優勢。因此,8位元MCU和CAN的優良組合,滿足汽車網路需求,也降低節點的成本。根據過去的經驗,CAN能夠滿足各種控制系統的需求。隨著汽車網路需要的各種屬性不斷增加,包括時間觸發、容錯和單線實現以及具有靈活資料傳輸速率的CAN(CAN FD),CAN規範也得到擴展。表1所示為30多年前首次推出CAN以來所發生的諸多變化。 為了將感測器和致動器聯網以提高系統舒適度,汽車工程師使用區域互聯網路(LIN)協定來降低成本。但是,LIN是單線主從式網路,需要更改使用CAN的硬體和軟體。使用CAN的最新汽車應用包括門禁控制、電池充電/電池管理和診斷設備。為了滿足車輛全部的要求,尤其是從另一個CAN控制系統存取車輛資料的要求,通常就需要使用8位元MCU/CAN。圖1是將8位元MCU/CAN節點添加到現有CAN匯流排的範例。 圖1 不同的CAN可以共存,增加了CAN匯流排的靈活性 8位元MCU實現低成本網路需求     連接到CAN匯流排是系統設計人員需要實現的最低功能,透過增加專門用於滿足其他系統要求的周邊,簡化設計人員的任務。這些系統任務包括感測一個或兩個用於控制目的的參數、馬達轉動的位移、啟動電磁線圈或者提供其他功能。 使用CIP方法可以降低軟體的複雜程度,並以較低的時脈速度提供更快的回應時間,同時降低功耗。在Microchip PIC18 K83系列中的CIP系統類別包括: ·智慧類比(包括感測器介面) ·波形控制 ·時序和測量 ·邏輯和數學 ·安全和監視 ·通訊 ·低功耗和系統靈活性 在這些類別中,具體周邊包括: ·帶有記憶體掃描的迴圈冗餘校驗(CRC),用於確保非揮發性記憶體的完整性。 ·直接記憶體存取(DMA),用於在沒有CPU參與的情況下進行記憶體和周邊之間的資料傳輸。 ·視窗看門狗計時器(WWDT),用於觸發系統重設。 ·帶計算功能的12位元類比至數位轉換器(ADC2),可自動進行類比訊號分析,進而實現即時系統回應。 ·互補波形發生器(CWG),用於達成馬達控制的高效同步開關。 除了使用CAN 2.0B外,整合CAN控制器還能夠完全相容以前版本的CAN模組(CAN 1.2和CAN 2.0A)。該產品的功能包括記憶體存取分區(MAP),用於在資料保護和自我載入程式應用中為設計人員提供支援。元件資訊區(DIA),則用於為工廠程式設計的元件ID和周邊校準值提供專用儲存空間。 由於CAN節點的主要目標是通訊,因此8位元MCU改進了串列通訊,包括支援非同步通訊和LIN協定的UART以及更高速的獨立I2C和SPI串列通訊介面。圖2顯示了15種CIP以及它們滿足具體系統需求的方式。過去並沒有考慮過在8位元MCU中實施這些on-chip結構,而正是由於這些結構,現在的8位元MCU的性能與許多設計人員的期望完全不同,所提供的功能遠遠超過十年前設計的MCU效能。 圖2 PIC18 K83系列中獨立於核心的周邊,可滿足多種系統需求 8位元MCU的程式設計方式非常簡單,與CAN和CIP結合使用時甚至更加容易。當這些8位元MCU能夠提供足夠的處理能力時,特別是針對遠端節點的處理能力,便能夠替代更昂貴且更難程式設計的16位元MCU。而CIP可以提供更多處理能力,實現更多8位元MCU選項。可靈活配置的on-chip硬體模組,能夠更高效更確定地處理重複嵌入。事實上,由於CAN具備良好的穩定性,如果MCU卡在迴圈的運作時,使用CIP的CAN仍然可以在核心之外繼續運行。 借助最新的8位元MCU/CAN+CIP和LIN,網路設計人員現在可以為CAN和LIN通訊提供更多靈活性和選擇。實際上,一些典型的8位元MCU LIN應用現在是潛在的CAN應用。例如,如果模組需要瞭解網路上的其他資料(如車輛速度),CAN可能是更好的選擇,或者至少是LIN的備選方案。模組所蒐集到的數據對於擋風玻璃雨刷非常有用,可以協助系統根據車輛的速度改變雨刷速度,而無需CAN到LIN的閘道。另外,如圖2所示,使用系統級CIP可以少用一、兩個額外的ASIC。 多年來,汽車中一直使用相同的PWM和互補波形發生器CIP產生相當複雜的多色LED氣氛照明。由於MCU沒有應用CAN功能,這些驅動程式會連接到LIN匯流排。而目前將該功能與支援CAN功能的高性價比8位元MCU相結合,可為設計提供更高的靈活性和簡化的備用方法。 雖然市面上大多數8位元MCU都嚴重的依賴核心來處理周邊功能,但CIP可實現其他系統設計的可能性,不會對CPU造成明顯負擔,包括各種感測器的高精度介面、高功率LED驅動器和/或相當複雜的馬達控制水準。 使用者可以測試各種開發工具,確定哪些工具和其他可能性中的哪一種適合特定網路。例如,MPLAB周邊函數產生器(MCC)是一款免費的軟體外掛程式,可提供圖形介面來配置特定於應用的周邊和功能。借助該工具,系統設計工程師在完成特定任務時可以配置基於硬體的周邊,而不必編寫和驗證整個軟體程式。 CAN具高度成本效益 對於汽車和工業應用中的匯流排架構,系統設計人員有多種選擇。作為一種廣受多數採用的匯流排,當需要為現有網路增加檢測和/或控制功能時,具有附加功能來滿足不同系統需求的MCU使CAN成為一種良好的選擇。憑藉其獨立於核心的周邊,8位元MCU/CAN系列可將CAN擴展到網路上更具成本效益的節點中。新型8位元MCU/CAN+CIP為新興汽車網路應用提供了靈活、經濟高效、簡單而可靠的資料傳輸以及存取控制、電池充電/電池管理和診斷設備所需的更高性能和系統支援。 (本文作者為Microchip 8-bit MCU部門產品行銷經理)
0
- Advertisement -
- Advertisement -

最新文章

- Advertisement -

熱門文章

- Advertisement -

編輯推薦

- Advertisement -