編譯/莊閔棻
超微半導體(AMD)在加州舉行的 Advancing AI 活動期間宣布推出適用於運行大型語言模型(LLM)的新加速器和處理器,提醒大家輝達(Nvidia)並不是唯一一家銷售人工智慧(AI)晶片的公司。 為了為AI模型提供動力,AMD、Nvidia和英特爾等公司已經陷入一場AI晶片的軍備競賽。 到目前為止,Nvidia 憑藉 H100 GPU 佔據大部分的市場,該 GPU被用於訓練 OpenAI 的 GPT 等模型。
Instinct MI300X 和 Instinct M1300A
據外媒報導,該晶片製造商終於推出用於訓練和運行大型語言模型(LLM)的MI300 系列產品,包括Instinct MI300X AI 加速器和 Instinct M1300A 加速處理單元 (APU)。該公司表示,MI300X的記憶體容量是先前M1250X版本的1.5倍,而這兩款新產品都比前代產品擁有更好的記憶體容量和更高的能源效率。AI 加速器主要是用來幫助開發AI模型,而APU則通常結合 CPU 和 GPU 實現更快的處理速度。
比輝達H100 好 1.4 倍
AMD 首席執行長蘇姿丰表示, MI300X「是世界上表現最好的加速器」。 她聲稱 MI300X 在訓練 LLM 方面可以媲美 Nvidia 的 H100 晶片,但在推理方面表現更好。該加速器在與 Meta 的700 億參數的 LLM 12