AI大模型驅(qū)動(dòng) 定制化芯片之風(fēng)漸起
2023-12-08
集微網(wǎng)報(bào)道,近來,亞馬遜、微軟、Meta、Google等科技巨頭紛紛加大自研芯片投入力度,希望以此降低對(duì)英偉達(dá)的依賴。值得注意的是,受人工智能、自動(dòng)駕駛等應(yīng)用推動(dòng),科技巨頭大多選擇定制芯片,以應(yīng)對(duì)自身需求。定制化芯片的重要性正在凸顯。
定制AI芯片風(fēng)潮漸起
在AI大模型熱潮的推動(dòng)下,一家獨(dú)大的英偉達(dá)正在將越來越多科技巨頭逼到親自下場(chǎng)制造AI芯片的地步。11月28日,亞馬遜云科技(AWS)在2023 re:Invent全球大會(huì)上宣布推出專為訓(xùn)練人工智能系統(tǒng)而設(shè)計(jì)的第二代AI芯片Trainium2,以及通用Graviton4處理器。據(jù)亞馬遜云科技首席執(zhí)行官Adam Selipsky介紹,Trainium2的性能是第一代Trainium的四倍,能源效率是其前身的兩倍。相當(dāng)于每個(gè)芯片可提供650 teraflops(每秒執(zhí)行一萬億次浮點(diǎn)運(yùn)算)的計(jì)算能力。由10萬個(gè)Trainium芯片組成的集群可以在數(shù)周內(nèi)訓(xùn)練出3000億參數(shù)的大語言模型。
而在11月16日舉辦的Ignite開發(fā)者大會(huì)上,微軟也宣布推出兩款自研芯片Maia100和Cobalt100。Maia 100用于加速AI計(jì)算任務(wù),幫助人工智能系統(tǒng)更快處理執(zhí)行識(shí)別語音和圖像等任務(wù);Cobalt 100集成128個(gè)計(jì)算核心。兩款芯片均采用臺(tái)積電5nm生產(chǎn),預(yù)計(jì)明年初將可用于軟數(shù)據(jù)中心當(dāng)中。
除亞馬遜、微軟之外,Meta、Google、特斯拉等英偉達(dá)的大客戶今年都在投入更多資源研發(fā)AI芯片,甚至OpenAI都開始籌備芯片項(xiàng)目。在越來越多的企業(yè)入局大模型領(lǐng)域,導(dǎo)致對(duì)A100和H100等高端GPU的需求直線增加之下,科技巨頭投入定制AI芯片的風(fēng)潮也愈演愈烈。
追求芯片性能與成本
高端GPU短缺是導(dǎo)致科技巨頭加大力度進(jìn)行AI大模型芯片開發(fā)的原因之一。隨著越來越多的企業(yè)入局大模型領(lǐng)域,越來越多大模型出爐,導(dǎo)致市場(chǎng)上對(duì)A100和H100等高端GPU的需求直線增加。OpenAI的CEO Sam Altman便曾多次抱怨算力短缺問題。而據(jù)巴倫周刊此前報(bào)道,英偉達(dá)高端GPU的交付已排到2024年。為了減少對(duì)英偉達(dá)GPU的依賴,有能力的公司紛紛加大芯片開發(fā)力度,用于創(chuàng)建、訓(xùn)練和迭代大模型產(chǎn)品。
那么,為何亞馬遜、微軟等都不約而同地走向自主開發(fā)定制芯片的道路?首要的原因之一是各大廠商希望優(yōu)化芯片性能、尋求差異化方案。在摩爾定律放緩的大背景之下,以往依靠摩爾定律推動(dòng)著性能效益提升的途徑越來越難以為繼,要想得到最佳的計(jì)算性能,必須仰仗針對(duì)特定應(yīng)用和數(shù)據(jù)集合的體系架構(gòu)。特別是在AI大模型領(lǐng)域,不同廠商均有著不同的差異化需求,越來越多公司發(fā)現(xiàn),一體適用的解決方案不再能滿足其計(jì)算需求。
Arm 高級(jí)副總裁兼基礎(chǔ)設(shè)施事業(yè)部總經(jīng)理Mohamed Awad表示,阿里巴巴、AWS、微軟這樣的超大規(guī)模云服務(wù)商都開始自研芯片,最主要的目的就是為了能夠把每一顆芯片的性能、效率都發(fā)揮到極致,做到最佳優(yōu)化。他們會(huì)根據(jù)自己的用例、工作負(fù)載,圍繞服務(wù)器、機(jī)架甚至是自己的數(shù)據(jù)中心來進(jìn)行個(gè)性化定制。隨著 GPTs 等技術(shù)的發(fā)展,數(shù)據(jù)量和計(jì)算量只會(huì)越來越大。通過芯片的定制,廠商可以通過優(yōu)化,支持不斷激增的數(shù)據(jù)量和計(jì)算量。
降低成本或許也是各大巨頭的一個(gè)現(xiàn)實(shí)考量。根據(jù)伯恩斯坦分析師StacyRasgon的分析,如果ChatGPT的查詢規(guī)模增長(zhǎng)到谷歌搜索的十分之一,那么它最初需要大約價(jià)值480億美元的GPU,每年還需要約160億美元的芯片來維持運(yùn)營。面對(duì)高昂的運(yùn)營成本,自研定制化芯片成為科技大廠的一致選擇。有分析機(jī)構(gòu)表示,與采用英偉達(dá)的產(chǎn)品相比,微軟開發(fā)代號(hào)為Athena的芯片用于大模型的處理,預(yù)計(jì)可以將每顆芯片的成本降低1/3。
未來從云端向邊緣延伸
Mohamed Awad認(rèn)為,未來在基礎(chǔ)設(shè)施領(lǐng)域,將有越來越多的廠商采用定制化的芯片解決方案。傳統(tǒng)的服務(wù)器系統(tǒng)大多采用一顆CPU通過標(biāo)準(zhǔn)總線連接多個(gè)加速器的架構(gòu)模式。但在 AI 時(shí)代,這樣的架構(gòu)已經(jīng)很難滿足日益增長(zhǎng)的數(shù)據(jù)和計(jì)算量需求,因?yàn)樗鼰o法獲得足夠的內(nèi)存帶寬。為此,越來越多的模型廠商開始選擇定制芯片,以便靈活調(diào)整芯片架構(gòu),重新構(gòu)建系統(tǒng)。
其實(shí),定制芯片對(duì)各大科技廠商來說并不陌生。亞馬遜云科技于2018年開始設(shè)計(jì)定制AI芯片,推出自研AI推理芯片Inferentia,并于2023年推出Inferentia的迭代版Inferentia 2,將計(jì)算性能提高三倍。日前,亞馬遜云科技發(fā)布訓(xùn)練芯片Trainium2。上一代產(chǎn)品Trainium為2020年底推出。谷歌定制芯片的歷史更早。2020年谷歌實(shí)際已在其數(shù)據(jù)中心部署了人工智能芯片TPU v4。目前谷歌將負(fù)責(zé)AI芯片的工程團(tuán)隊(duì)轉(zhuǎn)移到了谷歌云,旨在提高谷歌云開發(fā)AI芯片的能力。
談到定制芯片市場(chǎng)的未來發(fā)展,相關(guān)專家指出,隨著AI大模型、汽車等熱門應(yīng)用的推動(dòng),定制化芯片市場(chǎng)還將進(jìn)一步擴(kuò)大,目前汽車廠商如特斯拉等已經(jīng)投入定制化芯片的開發(fā)與商用。未來,定制芯片將從云端計(jì)算、HPC向邊緣計(jì)算延伸。這些應(yīng)用雖然可以通過通用芯片進(jìn)行處理,但針對(duì)特定工作量身訂制的芯片,能夠在更佳的成本與功耗效率下,達(dá)到性能或功能上優(yōu)化,更好滿足需求。專家也表示,這個(gè)趨勢(shì)對(duì)于通用芯片廠商并不十分有利。但對(duì)于IC產(chǎn)業(yè)鏈的其他廠商來說,如EDA廠商、IP廠商,以及晶圓代工廠商等,卻是一個(gè)利好。
聲明:本網(wǎng)站原創(chuàng)內(nèi)容,如需轉(zhuǎn)載,請(qǐng)注明出處;本網(wǎng)站轉(zhuǎn)載的內(nèi)容(文章、圖片、視頻)等資料版權(quán)歸原網(wǎng)站所有。如我們采用了您不宜公開的文章或圖片,未能及時(shí)和您確認(rèn),避免給雙方造成不必要的經(jīng)濟(jì)損失,請(qǐng)電郵聯(lián)系我們,以便迅速采取適當(dāng)處理措施。