提供高算力密度的AI加速能力、多芯片擴展支持及3D堆疊內存集成能力 芯原股份(芯原,股票代碼:688521.SH)今日宣布其高性能、可擴展的GPGPU-AI計算IP的最新進(jìn)展,這些IP現已為新一代汽車(chē)電子和邊緣服務(wù)器應用提供強勁賦能。通過(guò)將可編程并行計算能力與人工智能(AI)加速器相融合,這些IP在熱和功耗受限的環(huán)境下,能夠高效支持大語(yǔ)言模型(LLM)推理、多模態(tài)感知以及實(shí)時(shí)決策等復雜的AI工作負載。 ![]() 芯原的GPGPU-AI計算IP基于高性能通用圖形處理器(GPGPU)架構,并集成專(zhuān)用AI加速器,可為AI應用提供卓越的計算能力。其可編程AI加速器與稀疏感知計算引擎通過(guò)先進(jìn)的調度技術(shù),可加速Transformer等矩陣密集型模型的運行。此外,這些IP支持用于混合精度計算的多種數據格式,包括INT4/8、FP4/8、BF16、FP16/32/64和TF32,并支持多種高帶寬接口,包括3D堆疊內存、LPDDR5X、HBM、PCIe Gen5/Gen6和CXL。該IP還支持多芯片、多卡擴展部署,具備系統級可擴展性,滿(mǎn)足大規模AI應用的部署需求。 芯原的GPGPU-AI計算IP原生支持PyTorch、TensorFlow、ONNX和TVM等主流AI框架,覆蓋訓練與推理流程。此外,它還支持與主流的GPGPU編程語(yǔ)言兼容的通用計算語(yǔ)言(GPCL),以及主流的編譯器。這些能力高度契合當前大語(yǔ)言模型在算力和可擴展性方面的需求,包括DeepSeek等代表性模型。 “邊緣服務(wù)器在推理與增量訓練等場(chǎng)景下對AI算力的需求正呈指數級增長(cháng)。這一趨勢不僅要求極高的計算效率,也對架構的可編程性提出了更高要求。芯原的GPGPU-AI計算處理器在架構設計上實(shí)現了GPGPU通用計算與AI加速器的深度融合,可在極細粒度層面實(shí)現高效協(xié)同,相關(guān)優(yōu)勢已在多個(gè)高性能AI計算系統中得到驗證!毙驹紫瘧鹇怨、執行副總裁、IP事業(yè)部總經(jīng)理戴偉進(jìn)表示,“近期DeepSeek的技術(shù)突破進(jìn)一步凸顯出提升AI計算效率以應對日益復雜工作負載的重要性。我們最新一代GPGPU-AI計算IP已全面優(yōu)化,可高效支持專(zhuān)家混合(MoE)模型,并提升了核間通信效率。同時(shí),通過(guò)與多家領(lǐng)先AI計算客戶(hù)的深度合作,我們已對處理器架構進(jìn)行了優(yōu)化,以充分利用3D堆疊存儲技術(shù)所提供的充足帶寬。芯原將持續攜手生態(tài)合作伙伴,加速推動(dòng)這些先進(jìn)技術(shù)在實(shí)際應用中的規;涞! |