NVIDIA強化運算速度 AI推論/LLM加速簡化工作流程

作者: 吳心予
2021 年 11 月 11 日

NVIDIA近期於GTC發布人工智慧(AI)推論平台的更新,以及提供企業大型語言模型(LLM),簡化語言模型的部署。推論平台的更新包含NVIDIA Triton推論伺服器軟體的新功能,可在所有AI模型及框架上提供跨平台推論,以及可最佳化 AI模型的NVIDIA TensorRT,為NVIDIA GPU上的高效能推論提供執行環境 (Runtime)。同時NVIDIA推出NVIDIA A2 Tensor核心GPU,用於邊緣AI推論的低功耗、小尺寸加速器,其推論效能較CPU高20倍。

全球超過 25,000 個組織採用 NVIDIA AI 推論伺服器平台,為其 AI 部署提供支援

Triton在雲端、資料中心、企業邊緣及嵌入式裝置的GPU及CPU上提供AI推論服務,並支援AWS、Google Cloud、Microsoft Azure和阿里雲PAI-EAS。此外, TensorRT也整合TensorFlow 和 PyTorch,只要一行程式碼就能提供相較在框架內推論,加快三倍的效能。開發人員將能在使用TensorRT功能的同時,大幅簡化工作流程。

NVIDIA同步發表運用數兆個參數來訓練語言模型的NVIDIA NeMo Megatron 框架、可針對新領域和語言進行訓練的Megatron 530B可自訂LLM,以及搭載多 GPU、多節點、具分散式推論功能的NVIDIA Triton推論伺服器。這些工具結合 NVIDIA DGXTM系統,能提供可立即生產(Production-ready)的企業級解決方案,以簡化大型語言模型的開發與部署。

Megatron是由NVIDIA 研究人員帶頭的開源專案,研究大型Transformer語言模型的大規模有效訓練。NeMo Megatron框架協助企業克服在訓練精巧複雜的自然語言處理模型時面臨的挑戰,經最佳化處理後,可以在NVIDIA DGX SuperPOD的大規模加速運算基礎架構上擴充。NeMo Megatron利用可以匯入、管理、組織與清除資料的資料處理函式庫,自動化LLM訓練的複雜性。採用資料、張量與流程平行化的先進技術,把大型語言模型的訓練分散到數千個GPU。企業可以使用 NeMo Megatron 框架為特定領域和語言訓練LLM。

且NVIDIA Triton推論伺服器的多GPU、多節點功能,促使LLM推論的作業負載即時在多個GPU與節點上擴充。這些模型需要的記憶體數量不但超過單一 GPU、甚至超過搭載多個GPU的大型伺服器具備的可用記憶體,而推論則必須快速執行,才能在應用程式中發揮作用。

 

標籤
相關文章

生成式AI元年啟動 NVIDIA全力支援企業AI

2024 年 04 月 11 日

人工智慧技術陣營眾多 ARM專注後端控制技術

2016 年 11 月 22 日

資料中心競合新局 邊緣運算開啟軟體附加價值

2020 年 11 月 02 日

NVIDIA發表A100 80GB GPU 建構下世代超級電腦

2020 年 11 月 20 日

NVIDIA AI推論效能/能源效率均佳

2021 年 09 月 30 日

NVIDIA數位孿生/Jetson AGX Orin開發板亮相

2022 年 03 月 23 日
前一篇
高速運算向前衝 NVIDIA Quantum-2/Jetson AGX Orin亮相
下一篇
強化GaN布局 中美晶1500萬美元入股Transphorm