作者:Arm 作為人工智能 (AI) 的創(chuàng )新基礎,眾多企業(yè)都在使用通用且應用廣泛的 Arm 計算平臺。迄今為止,合作伙伴基于 Arm 架構的芯片出貨量已超過(guò) 2,900 億顆。如今,Arm 已為各類(lèi)技術(shù)領(lǐng)域的 AI 應用提供支持,這也是為何 AI 的技術(shù)先行者們能夠基于 Arm 平臺快速創(chuàng )新的關(guān)鍵原因。 無(wú)論是現在還是未來(lái),Arm 平臺都是 AI 運行的基石。若要滿(mǎn)足對 AI 技術(shù)和應用的旺盛需求,則必須在計算領(lǐng)域的方方面面實(shí)現無(wú)處不在的 AI 功能。從使用無(wú)數處理器訓練大語(yǔ)言模型 (LLM) 的大型數據中心,到全球數字消費者每天接觸邊緣 AI 的電子設備,計算領(lǐng)域的方方面面都有 AI 的身影。 高效的 AI 計算 若要滿(mǎn)足 AI 對高算力的需求,則少不了對高效計算性能的投入。生成式 AI 的發(fā)展推動(dòng)了對 AI 算力和資源的需求空前增長(cháng)。一名荷蘭研究人員指出,如果一年內每次使用 Google 進(jìn)行搜索都運用到 AI,其所需的電力相當于愛(ài)爾蘭全國一年的用電量。長(cháng)遠來(lái)看,考慮到地球上資源有限,這種方法是難以為繼的。 Arm 提供了計算性能和能效的卓越組合,推動(dòng)了智能手機領(lǐng)域的技術(shù)革新,而同樣的趨勢也正發(fā)生在 AI 革新中。 數據中心中的 AI 頭部超大規模服務(wù)運營(yíng)商正采用定制芯片戰略,來(lái)進(jìn)行數據中心轉型,以迎接 AI 時(shí)代。 軟銀公司正在與 NVIDIA 合作,建設全球首座采用基于 Arm 架構的 Grace Hopper 超級芯片的 5G AI 數據中心。這一突破性的 AI 加速 CPU 專(zhuān)為超大規模 AI 和高性能計算應用而設計。Grace Hopper 基于 72 顆 Arm Neoverse V2 核心打造,在 AI 的高負荷任務(wù)中實(shí)現了 10 倍的性能飛躍,同時(shí)大幅提高了每瓦性能。微軟則在此前發(fā)布了其首款專(zhuān)為云計算打造的定制芯片 Azure Cobalt 100 處理器,該處理器基于 Arm Neoverse CSS N2 打造。此外,基于 Arm Neoverse 平臺的 AWS Graviton3 可以使 AI 推理(使用訓練后的模型對新的真實(shí)數據進(jìn)行預測的過(guò)程)的成本節約 50%。 在數據中心中約有 85% 的 AI 工作負載用于運行推理,其驅動(dòng)了各種用例、行業(yè)和設備的 AI 應用,因此企業(yè)有巨大的動(dòng)力來(lái)降低相關(guān)的能源消耗和成本。 邊緣 AI 除了數據中心和云服務(wù),許多 AI 工作負載還需要在設備上進(jìn)行處理,以便更有效地分布 AI 工作負載。 在設備上處理 AI 工作負載已經(jīng)成為現實(shí),無(wú)論是智能手機、智能家居設備還是智能汽車(chē),這一趨勢將繼續增長(cháng),特別是隨著(zhù)大語(yǔ)言模型 (LLM) 變得更加高效,并針對特定任務(wù)、用例或設備而專(zhuān)門(mén)打造。直接在采集數據的設備上處理 AI 計算,可以帶來(lái)更快、更安全的用戶(hù)體驗并減少延遲,這對于工業(yè)和汽車(chē)應用等對安全性要求很高的用例來(lái)說(shuō)至關(guān)重要。 開(kāi)發(fā)者正在編寫(xiě)更精簡(jiǎn)的 AI 模型,以在小型微處理器甚至更小的微控制器上運行,從而節省能源、時(shí)間和成本。例如,Plumerai 提供的軟件解決方案可在基于 Arm Cortex-A 和 Cortex-M 的系統級芯片 (SoC) 上加速神經(jīng)網(wǎng)絡(luò ),并在基于 Arm 架構的微控制器上運行略高于 1MB 的 AI 代碼,其可執行面部檢測和識別等功能。 基于處理器技術(shù)的 AI 無(wú)論是由 CPU 處理全部 AI 工作負載,還是由 GPU 或 NPU 等協(xié)處理器提供支持,AI 處理始于 CPU。 過(guò)去十年間,Arm 的 CPU 和 GPU 的 AI 處理能力每?jì)赡昃蛯?shí)現翻番,目前 70% 的第三方應用中的 AI 都基于 Arm CPU 運行,在關(guān)鍵技術(shù)市場(chǎng)中推動(dòng)了邊緣 AI 的顯著(zhù)發(fā)展。 基于 Armv9 CPU 和 GPU 技術(shù)打造的高性能 AI 手機現已問(wèn)世,其中包括搭載 MediaTek 天璣 9300 的 vivo X100 和 X100 Pro 智能手機,以及 Google Pixel 8,這是首款專(zhuān)為 Google 的 AI 模型 Gemini Nano 進(jìn)行工程研發(fā)的智能手機,可在邊緣執行一系列 AI 的任務(wù)。與此同時(shí),超過(guò) 200 億個(gè)基于 Arm 架構的 SoC 能夠運行各種物聯(lián)網(wǎng)設備上廣泛的 ML 工作負載,包括基于 Cortex-M 處理器、Arm Ethos-U NPU 和 Cortex-A CPU 打造的設備。而在汽車(chē)領(lǐng)域,如今的車(chē)用芯片可實(shí)現基本的 AI 功能,如障礙物檢測、3D 視圖和簡(jiǎn)單的傳感器融合,這些功能都在 Arm CPU 上運行。下一代基于 AI 的汽車(chē)功能,如先進(jìn)駕駛輔助系統 (ADAS) 和自動(dòng)駕駛功能,也基于 Arm CPU 而構建。 全球最大的開(kāi)發(fā)者社區 Arm 持續的軟件投入正建立起全球最大的 AI 開(kāi)發(fā)者社區。 Arm 致力于以最常見(jiàn)的方式讓開(kāi)發(fā)者能夠更簡(jiǎn)單、更快速、更安全地進(jìn)行編碼,攜手實(shí)現無(wú)處不在的 AI。如今,超過(guò)一億用戶(hù)可以使用 Arm NN 軟件開(kāi)發(fā)工具包,在 Arm CPU 和 GPU 上優(yōu)化 ML 工作負載。對于全球 1,500 萬(wàn) Arm 架構設備開(kāi)發(fā)者來(lái)說(shuō),這使他們能夠運行復雜的 AI 和 ML 工作負載,確保將應用更快地推向市場(chǎng)。 Arm 在其業(yè)界領(lǐng)先的生態(tài)系統中開(kāi)展了一系列合作,以使其對開(kāi)發(fā)者的 AI 承諾付諸實(shí)踐。此外,Arm還通過(guò)開(kāi)源框架和庫,為基于 Arm 架構的硬件提供強大的 ML 功能,為開(kāi)發(fā)者提供全方位支持,包括 TensorFlow、PyTorch、Caffe 2、OpenVINO 和 TVM,從而為開(kāi)源社區打造 AI 創(chuàng )新基礎。 寫(xiě)在最后 AI 為下一個(gè)技術(shù)創(chuàng )新奠定了基礎,引領(lǐng)社會(huì )進(jìn)入一個(gè)潛力非凡的新時(shí)代。而實(shí)現這一切的前提正是讓 AI 無(wú)處不在。這不僅意味著(zhù)要在云端、數據中心和超級計算機中實(shí)現 AI,還要確保復雜的 AI 工作負載能夠在更小、更受限的邊緣技術(shù)和設備上運行。能效與性能對于推動(dòng)邊緣 AI 的發(fā)展同等重要。 Arm 正在促成這一目標。Arm提供了應用廣泛的通用計算平臺,賦能邊緣設備和其他領(lǐng)域的各種可能性。無(wú)論是 CPU、GPU、ISP 還是 NPU,Arm 在每一代產(chǎn)品中都增加了更多 AI 性能、效率功能及安全特性,同時(shí)還為合作伙伴提供了多樣的靈活性,使它們能夠集成和開(kāi)發(fā)自己的創(chuàng )新解決方案。而在軟件、工具和生態(tài)系統方面,IP 與開(kāi)源軟件和工具乃至廣泛的行業(yè)領(lǐng)先生態(tài)系統相結合,讓全球上千萬(wàn)開(kāi)發(fā)者都可以使用 Arm 計算平臺作為 AI 創(chuàng )新的基礎。從傳感器、智能手機,到工業(yè)級物聯(lián)網(wǎng)、汽車(chē)和數據中心,基于 Arm 平臺的 AI 無(wú)處不在。 |