Nervana神經網路處理器亮相 英特爾力推AI Everywhere - 熱門新聞 - 新電子科技雜誌 Micro-electronics


熱門關鍵字:SiC | 機器視覺 | GaN | 5G | 自駕車

訂閱電子報

立刻輸入Email,獲取最新的資訊:


收藏功能:
分享報新知:
其他功能:

Nervana神經網路處理器亮相 英特爾力推AI Everywhere

文‧侯冠州 發布日期:2019/08/22 關鍵字:IntelNervana NNP-TNervana NNP-I人工智慧深度學習

為實現人工智慧(AI)無所不在的目標,英特爾(Intel)將推出高性能AI加速器「Nervana神經網絡處理器」,並於近期釋出相關細節。新推出的神經網路加速器共有兩項產品,分別為專用於訓練(Training)的Nervana NNP-T,以及用於推論(Inference)的Nervana NNP-I。

英特爾總裁兼人工智慧產品事業群總經理Naveen Rao表示,為了在未來實現AI無所不在的願景,需要克服數據不斷生成的挑戰,並且確保企業能有效利用數據,在有意義的情況下處理數據並進行智慧化處理。同時,資料中心和雲端需要更高性能、更多擴展的運算方案以因應複雜的AI應用程序,也因此,在未來的AI願景當中,需要採用整體的解決方案,包含硬體、軟體再到應用程序。

英特爾總裁兼人工智慧產品事業群總經理Naveen Rao。

新推出的Nervana神經網絡處理器共有兩款產品,分別為專用於訓練(Training)的Nervana NNP-T,以及用於推論(Inference)的Nervana NNP-I。NNP-T旨在從頭開始構建大規模深度學習模型,推動深度學習訓練的界限,進而加快模型訓練時程,能在業者所預定的功耗、預算內完成。另外,為了滿足未來深度學習需求,Nervana NNP-T具備靈活性和可編程性,因此可以依據需求進行量身定制(Tailored),加速各種工作負載(包含現有的工作負載和未來新出現的工作負載)。

另一款NNP-I,則是專為推論而設計,具備高度可編程的特性,以滿足資料中心工作負載、深度學習推論需求,並進一步大規模加速深度學習部署。隨著AI開始變得無所不在,出現在各個應用之中,擁有一個易於編程,且具有低延遲、快速代碼移植功能,並支援所有主要深度學習框架的專用加速器,有助於企業更有效的發揮數據潛力。

英特爾指出,將數據轉化成訊息,最後再成為企業、消費者所需的知識,需要硬體、軟體、儲存、互連技術等相互支持,才得以發展並支援新興且日益複雜的AI應用及技術。而新推出Nervana神經網絡處理器便是秉持此一原則,以「從頭開始構建AI」的概念,讓客戶更能專注於發展AI應用和技術。

研討會專區
熱門文章