帳號:
密碼:
最新動態
 
產業快訊
CTIMES/SmartAuto / 新聞 /
NVIDIA Blackwell GPU首次測試結果 提高推論效能加倍
為生成式 AI 樹立全新標準

【CTIMES/SmartAuto 陳玨 報導】   2024年08月29日 星期四

瀏覽人次:【934】

現今許多企業逐漸採用生成式人工智慧(AI)與陸續推出各項新服務,使得對於資料中心基礎設施的需求大增。訓練大型語言模型(LLM)和即時提供由LLM支援的服務都不容易。在最新一輪的MLPerf 產業基準:Inference v4.1中,NVIDIA平台在各項資料中心測試項目裡領先。即將推出的NVIDIA Blackwell平台由於使用第二代Transformer引擎與FP4 Tensor核心,在處理 MLPerf 最大的LLM工作量Llama 2 70B之際,首次測試的結果顯示其效能較NVIDIA H100 Tensor Core GPU架構高出四倍。

NVIDIA Blackwell 在 MLPerf Inference 的基準測試活動中首次亮相,為生成式AI樹立全新標準。
NVIDIA Blackwell 在 MLPerf Inference 的基準測試活動中首次亮相,為生成式AI樹立全新標準。

NVIDIA H200 Tensor核心GPU在資料中心類別的各項測試裡出現,包括基準中最新加入有著467億個參數、每個token有129億個活躍參數的Mixtral 8x7B 混合專家(MoE)LLM。MoE模型能夠在單一部署中回答各式各樣的問題與執行更多不同的任務,讓使用者有更多種部署 LLM 的方式。MoE的效率更高,每次進行推論作業只要啟動幾個專家,代表提供結果的速度比類似的密集模型更快速。

多GPU運算的能力成為滿足當前運行LLM的即時延遲需求,NVIDIA NVLink和NVSwitch可在基於NVIDIA Hopper架構的GPU之間以高頻寬溝通,並為當今即時、具成本效益的大型模型推論作業帶來顯著優勢。而Blackwell平台加上有著72個GPU更大規模的NVLink 網域,將進一步擴展NVLink Switch的功能。

關鍵字: GPU  NVIDIA 
相關新聞
黃仁勳:自動駕駛的時代已經來臨
2025年CES依然著重人工智慧 AI能力下放家電漸成趨勢
愛德萬測試:AI與HPC持續驅動半導體測試成長 加速拓展類比測試領域
Arm:2025年AI走向個性化 並以邊緣運算與多模態為核心
邊緣運算和資料中心AI領域推動 小型FPGA發展值得期待
相關討論
  相關文章
» CTIMES編輯群解析2025趨勢
» MIC所長洪春暉看2025年產業趨勢
» 利用CPU和SVE2加速視訊解碼和影像處理
» 擺明搶聖誕錢!樹莓派500型鍵盤、顯示器登場!
» Arduino新品:UNO SPE擴充板,隨插即用UNO R4實現超高數據傳輸、即時連結


刊登廣告 新聞信箱 讀者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2025 遠播資訊股份有限公司版權所有 Powered by O3  v3.20.2048.172.71.194.167
地址:台北數位產業園區(digiBlock Taipei) 103台北市大同區承德路三段287-2號A棟204室
電話 (02)2585-5526 #0 轉接至總機 /  E-Mail: [email protected]