您的位置:首頁 > 行業(yè)資訊 > 正文

日本PFN啟動新一代AI處理器開發(fā):3D堆疊DRAM內(nèi)存引領(lǐng)技術(shù)革新

時間:2024-11-19 10:40:30 瀏覽:12

近日,日本AI芯片企業(yè)Preferred Networks(以下簡稱PFN)宣布啟動其新一代AI推理處理器MN-Core L1000的開發(fā)計(jì)劃,目標(biāo)于2026年交付。這一消息標(biāo)志著AI處理器技術(shù)的又一重大進(jìn)步,尤其是3D堆疊DRAM內(nèi)存技術(shù)的應(yīng)用,為解決當(dāng)前AI加速器領(lǐng)域的帶寬瓶頸問題提供了創(chuàng)新思路。

據(jù)悉,MN-Core L1000是PFN在其MN-Core系列AI處理器中的最新產(chǎn)品,專門針對大型語言模型等生成式AI推理場景進(jìn)行了深度優(yōu)化。預(yù)期該處理器的計(jì)算速度將達(dá)到傳統(tǒng)GPU的十倍,這對于需要大規(guī)模并行處理和快速數(shù)據(jù)訪問的高性能計(jì)算場景而言,無疑是一個巨大的飛躍。

6.png

3D堆疊DRAM內(nèi)存是MN-Core L1000的核心亮點(diǎn)之一。傳統(tǒng)的DRAM將存儲單元橫向排布在單個硅基晶圓平面上,而3D DRAM則通過將多個存儲層垂直堆疊在一起,以形成更高的存儲密度。這一創(chuàng)新設(shè)計(jì)不僅大幅縮短了邏輯計(jì)算單元與數(shù)據(jù)存儲單元之間的物理距離,還優(yōu)化了信號傳輸路徑,從而顯著提升了帶寬上限。

與傳統(tǒng)的2.5D封裝DRAM內(nèi)存方案,如被英偉達(dá)和AMD等廠商采用的高帶寬內(nèi)存(HBM)相比,3D堆疊DRAM內(nèi)存具備更高的帶寬和更大的存儲密度。而與Cerebras和Groq等公司采用的SRAM緩存方案相比,3D堆疊DRAM內(nèi)存則在滿足大型模型推理需求的同時,減少了對昂貴的先進(jìn)制程邏輯單元的占用面積。

PFN認(rèn)為,MN-Core L1000采用的3D堆疊DRAM內(nèi)存技術(shù)兼具了HBM方案的高容量和SRAM方案的高帶寬兩大優(yōu)勢。此外,其計(jì)算單元的高能效設(shè)計(jì)也成功應(yīng)對了3D堆疊DRAM帶來的熱管理挑戰(zhàn)。這一技術(shù)創(chuàng)新不僅解決了當(dāng)前AI加速器面臨的帶寬瓶頸問題,還為AI領(lǐng)域的深度學(xué)習(xí)、自然語言處理等多種任務(wù)提供了強(qiáng)有力的技術(shù)支持。

7.png

MN-Core L1000的開發(fā)也得到了合作伙伴的大力支持。今年8月,PFN與日本金融巨頭SBI Holdings共同組建了資本和商業(yè)聯(lián)盟,致力于推進(jìn)下一代AI半導(dǎo)體的開發(fā)與產(chǎn)品化。而早前的7月,三星電子也獲得了PFN的2nm先進(jìn)制程與I-Cube S先進(jìn)封裝的整體代工訂單,進(jìn)一步推動了MN-Core L1000在高端AI處理器市場的布局。

隨著生成式AI技術(shù)的迅猛發(fā)展,市場對更強(qiáng)大的計(jì)算能力需求愈發(fā)迫切。尤其是在大語言模型和多模態(tài)AI的背景下,MN-Core L1000的推出具有重要意義。該處理器在實(shí)際應(yīng)用中,不僅能顯著提升智能設(shè)備的推理能力,還能顯著優(yōu)化用戶體驗(yàn),使AI技術(shù)在各行各業(yè)的滲透更加深入。

日本PFN此次推出的MN-Core L1000處理器不僅標(biāo)志著AI處理器技術(shù)的又一重大進(jìn)步,也預(yù)示著AI硬件發(fā)展的新方向。隨著技術(shù)的不斷演進(jìn),未來的AI處理器將不僅僅是計(jì)算單元,更將成為推動社會和經(jīng)濟(jì)發(fā)展的重要驅(qū)動力。我們有理由相信,在不久的將來,AI技術(shù)將不斷重塑傳統(tǒng)行業(yè),帶來更多的機(jī)遇和挑戰(zhàn)。