來(lái)源: 網(wǎng)易科技 在美國時(shí)間周二舉辦的Reinvent大會(huì )上,亞馬遜旗下的云計算部門(mén)AWS發(fā)布了新的人工智能(AI)芯片,供客戶(hù)構建和運行人工智能應用程序,并計劃提供英偉達的最新芯片。 AWS正試圖以各種高性?xún)r(jià)比的選擇脫穎而出,成為云服務(wù)提供商。不過(guò),它不會(huì )只銷(xiāo)售廉價(jià)的亞馬遜品牌產(chǎn)品。就像亞馬遜的在線(xiàn)零售市場(chǎng)一樣,亞馬遜的云計算服務(wù)也將提供來(lái)自其他供應商的頂級產(chǎn)品,包括頂級人工智能芯片制造商英偉達的GPU。 自人工智能初創(chuàng )企業(yè)OpenAI去年發(fā)布ChatGPT聊天機器人以來(lái),英偉達GPU的需求就不斷飆升。ChatGPT聊天機器人具有總結信息和撰寫(xiě)類(lèi)似真人文本的能力,令人們驚嘆不已。這導致英偉達的芯片短缺,因為各家公司都在競相將類(lèi)似的生成式人工智能技術(shù)整合到自己的產(chǎn)品中。 亞馬遜選擇了雙管齊下戰略,既生產(chǎn)自己的芯片,又允許客戶(hù)使用英偉達的最新芯片,這可能會(huì )幫助它對抗云計算領(lǐng)域的頭號競爭對手微軟。本月早些時(shí)候,微軟也采取了類(lèi)似的做法,發(fā)布了其首款人工智能芯片Maia 100,并表示Azure云將采用英偉達H200 GPU。 具體來(lái)說(shuō),AWS表示,它將提供英偉達最新H200人工智能圖形處理單元。該公司還發(fā)布了新的Trainium2人工智能芯片和通用Graviton4處理器。 新的H200 GPU是H100的升級版,OpenAI曾使用H100來(lái)訓練其最先進(jìn)的大語(yǔ)言模型GPT-4。大型公司、初創(chuàng )公司和政府機構都在爭奪有限的芯片供應,這意味著(zhù)從亞馬遜等云服務(wù)提供商那里租用芯片的需求也很高。英偉達表示,H200的輸出速度將是H100的近兩倍。 亞馬遜自己的Trainium2芯片是為訓練人工智能模型而設計的,包括支持OpenAI ChatGPT等人工智能聊天機器人及其競爭對手運行的基礎模型。亞馬遜表示,初創(chuàng )公司Databricks和OpenAI的競爭對手、亞馬遜支持的Anthropic計劃用新的Trainium2芯片構建模型,新模型的性能將比原來(lái)的模型提高四倍。 Graviton4處理器基于A(yíng)rm架構,比英特爾或AMD的芯片能耗更低。Graviton4承諾比現有的Graviton3芯片性能提高30%,從而實(shí)現AWS所說(shuō)的更高的價(jià)格產(chǎn)出。由于通貨膨脹率始終高于往常,這促使央行提高利率,那些希望繼續使用AWS,但為降低云服務(wù)賬單以更好應對經(jīng)濟問(wèn)題的組織可能希望考慮遷移到Graviton上。 亞馬遜表示,超過(guò)5萬(wàn)名AWS客戶(hù)已經(jīng)在使用Graviton芯片。 最后,作為與英偉達加深合作關(guān)系的一部分,AWS表示,它將運營(yíng)超過(guò)16000顆英偉達GH200 Grace Hopper超級芯片,這些芯片包含英偉達GPU和基于A(yíng)rm架構的通用處理器。英偉達自己的研發(fā)團隊和AWS客戶(hù)都將能夠利用這一基礎設施。 自2006年推出用于計算和存儲數據的EC2和S3服務(wù)以來(lái),AWS已經(jīng)推出了200多種云產(chǎn)品。當然,并不是所有服務(wù)都大獲成功,有些版本已經(jīng)很長(cháng)時(shí)間沒(méi)有更新,而少數版本已經(jīng)停產(chǎn),從而讓亞馬遜釋放并重新分配資源。然而,該公司仍在繼續投資Graviton和Trainium項目,這表明亞馬遜已經(jīng)意識到了需求。 AWS沒(méi)有宣布搭載英偉達H200芯片的虛擬機實(shí)例的發(fā)布日期,也沒(méi)有宣布使用其Trainium2芯片的虛擬機實(shí)例的發(fā)布日期。不過(guò),客戶(hù)現在就可以開(kāi)始測試Graviton4的虛擬機實(shí)例,幾個(gè)月后就可以投入商業(yè)使用。 |