整合多階/類比記憶體運算 AI邊緣功耗難題迎刃而解 - 技術頻道 - 新電子科技雜誌 Micro-electronics


熱門關鍵字:電源模組 | SiC | 機器視覺 | GaN | 5G

訂閱電子報

立刻輸入Email,獲取最新的資訊:


收藏功能:
分享報新知:
其他功能:

整合多階/類比記憶體運算 AI邊緣功耗難題迎刃而解

文‧Vipin Tiwari 發布日期:2020/10/05 關鍵字:人工智慧AI機器學習ML深度學習DL NLP邊緣運算記憶體 neural networkMAC運算

機器學習和深度學習已成為現代生活中不可或缺的部分。利用自然語言處理(NLP)、影像分類和物體偵測實現的人工智慧(AI)應用已深度嵌入到眾多設備中。大多數AI應用透過雲端引擎即可出色地滿足其用途,例如在Gmail中回覆電子郵件時,可以使用詞彙預測功能。

雖然使用者可以享受到這些AI應用帶來的益處,但同時仍有隱私、功耗、延遲和成本等諸多疑慮,這些疑慮便成為AI 應用的挑戰。如果有一個能夠從資料來源,執行部分/全部運算(推論)的本地處理引擎,那麼這些問題即可迎刃而解。傳統數位神經網路的記憶體存在功耗瓶頸,難以實現這一目標。為了解決此問題,可以將多階記憶體與類比記憶體內運算方法結合使用,使處理引擎滿足更低的毫瓦級(mW)到微瓦級(μW)功率要求,進而在網路邊緣執行AI推論。

如果透過雲端引擎為AI應用提供服務,使用者必須主動/被動上傳一些資料到雲端,運算引擎則在雲端處理資料並提供預測,然後將預測結果發送給終端用戶使用。以下概述資料處理過程面臨的挑戰(圖1):

》想看更多內容?快來【免費加入會員】【登入會員】,享受更多閱讀文章的權限喔!
研討會專區
主題式電子報
熱門文章