導讀:隨著我國高性能計算、AI計算及邊緣計算需求提升,超算中心、智算中心及邊緣數(shù)據(jù)中心將進一步發(fā)展,特別是智算中心,正在從早期實驗探索逐步走向商業(yè)試點。
隨著我國高性能計算、AI計算及邊緣計算需求提升,超算中心、智算中心及邊緣數(shù)據(jù)中心將進一步發(fā)展,特別是智算中心,正在從早期實驗探索逐步走向商業(yè)試點。
從傳統(tǒng)芯片一統(tǒng)產(chǎn)業(yè)的時代走來,AI芯片的發(fā)展并非一帆風順,泡沫充斥、資本遇冷、人才稀缺……不過,在半導體產(chǎn)業(yè)整體步入下行周期的2022年,AI芯片反倒扛住了爭議和質(zhì)疑,在服務器、汽車等領域顯現(xiàn)出了日益放大的價值效應。
2022年的這三大技術和應用趨勢,有望成為AI芯片未來幾年的關鍵動力:
智能算力反超通用算力規(guī)模
當前,我國通用算力的數(shù)據(jù)中心仍是市場主力,按機架規(guī)模統(tǒng)計,占比超過90%。隨著我國高性能計算、AI計算及邊緣計算需求提升,超算中心、智算中心及邊緣數(shù)據(jù)中心將進一步發(fā)展,特別是智算中心,正在從早期實驗探索逐步走向商業(yè)試點。
IDC數(shù)據(jù)顯示,2022年我國智能算力規(guī)模達到268 EFLOPS,超過通用算力規(guī)模。預計未來五年,我國智能算力規(guī)模的年復合增長率將達52.3%,超出同期通用算力規(guī)模18.5%的年復合增長率,到2026年,我國智能算力規(guī)模將達到1271.4EFLOPS。
同時,邊緣計算需要處理的數(shù)據(jù)量會越來越多,算力要求也將逐步提高。邊緣側(cè)的設備也不再拘泥于簡單的數(shù)據(jù)采集,還會有大量的邊緣網(wǎng)關、邊緣AI、邊緣可擴展型服務器等設備,協(xié)助前端數(shù)據(jù)處理,將處理后的數(shù)據(jù)傳輸給云端,有效減輕云端的數(shù)據(jù)壓力,用戶也可根據(jù)自己的實際業(yè)務,靈活就近選擇邊緣計算節(jié)點或中心云計算節(jié)點。
邊緣計算場景大致有兩條路線:一是高性能通用處理器做專用設備,為場景提供專用算力;二是高度集成化、低功耗化的SoC芯片,通過自主設計降低功耗的同時,可實現(xiàn)中低端邊緣計算設備的戶外現(xiàn)場應用,可大量部署在工業(yè)等現(xiàn)場。這些方案也可以疊加AI芯片、FPGA等,針對某類場景提供定制化算法,提升邊緣計算的能力。
從AI芯片角度來看,隨著AI產(chǎn)業(yè)技術不斷提升,產(chǎn)業(yè)AI化加速落地,全球AI芯片市場將高速增長。IDC預計,到2025年AI芯片市場規(guī)模將達726億美元。異構計算成為主流趨勢,未來18個月,全球AI服務器GPU、ASIC和FPGA的搭載率均會上升,算力多元化發(fā)展趨勢明顯。
從計算架構發(fā)展來看,基于 DSA( Domain-Specific Architectures)思想設計的AI芯片正在成為主導,推動了AI芯片的多元化發(fā)展。此外,多元算力從“能用”到“好用”并且為企業(yè)創(chuàng)造業(yè)務價值,離不開通用性強、綠色高效、安全可靠的計算系統(tǒng)的支持。業(yè)內(nèi)正在推動多元算力系統(tǒng)架構創(chuàng)新,基于計算節(jié)點內(nèi)和節(jié)點間的互聯(lián)技術破局現(xiàn)有計算架構的瓶頸,通過充分調(diào)動起多芯片、多板卡、多節(jié)點的系統(tǒng)級能力,實現(xiàn)各種加速單元以及跨節(jié)點系統(tǒng)的高效協(xié)同,提升計算性能。
從場景應用維度來看,智能化場景將隨著時間的推移,呈現(xiàn)出更加深入、更加廣泛的趨勢。
大算力自動駕駛芯片
走向巔峰對決
自動駕駛領域是芯片與AI技術交融和迭代的關鍵領域。
從神經(jīng)網(wǎng)絡計算推動自動駕駛大行其道開始,到走向高階的輔助駕駛感知方案,隨著自動駕駛級別的提升,所需要的算力幾乎是指數(shù)級爆炸式的增長,從L2、L3、L4走向L5,每向上走一級至少有10倍以上算力需求的提升,大規(guī)模并行化的AI計算,使得大算力的計算平臺成為了產(chǎn)業(yè)必須,在提升有效算力的道路上似乎永無止境。
Gartner數(shù)據(jù)顯示,預計到2025年,全球汽車AI芯片市場將以31%的年復合增速飆升至236億美元。其中,中國汽車AI芯片的市場將達到68億美元,2030年為124億美元,年復合增長率預計可達28.14%。
暴增的算力需求下,主機廠紛紛推動“硬件預埋”概念。走向L4級別自動駕駛甚至L5級無人駕駛究竟需要多大算力才夠?目前業(yè)界并沒有定論,但幾千TOPS的有效算力支撐被認為是需要的。
國內(nèi)市場方面,地平線征程5已經(jīng)成為國內(nèi)首款實現(xiàn)前裝量產(chǎn)的百TOPS大算力AI芯片,這款芯片對于地平線自身、以及我國大算力芯片的發(fā)展都具有重要意義。如果把自動駕駛大算力芯片的競逐比喻為世界杯,地平線征程5與英偉達算是率先進入百TOPS芯片前裝量產(chǎn)的階段,相當于“提前鎖定了決賽席位”。
不過今年10月,英偉達推出的芯片NVIDIA Drive Thor,直接把標桿又拉高了一個級別,這款超級芯片可實現(xiàn)最高 2000TOPS AI 算力以及 2000 TFLOPS 浮點算力。據(jù)官方介紹,NVIDIA Drive Thor是第一個使用集成推理Transformer引擎的自動駕駛汽車平臺,借助Transformer引擎,它可將 Transformer 深度神經(jīng)網(wǎng)絡的推理性能提升9倍,這對于支持與自動駕駛相關的、龐大且復雜的AI工作負載至關重要。
在通往自動駕駛的路上,Drive Thor肯定不會是AI芯片終結(jié)者,不過它在2022年出現(xiàn)的意義在于:第一,將智能汽車帶到中央計算模式。此前業(yè)界對于智能汽車芯片的設計思路基本上是自動駕駛芯片負責自動駕駛,座艙芯片負責車載娛樂,而未來融合是趨勢,Drive Thor單芯片艙駕一體的設計,或?qū)⒓铀僦醒胗嬎銜r代的到來。第二,它將汽車芯片算力直接推向了2000TOPS標準。提升計算效率是汽車智能化發(fā)展的關鍵一環(huán),因為實現(xiàn)更高級別的自動駕駛、實現(xiàn)更智能的人機交互座艙體驗都需要更強的算力。按照iHS Markit預計,2024年座艙NPU算力需求將是2021年的十倍,CPU算力需求是2021年的3.5倍,這都要求汽車芯片的算力必須進一步拉高。
在汽車AI芯片方面,存算一體的大算力AI芯片也在發(fā)力。這方面的從業(yè)者認為,相比于傳統(tǒng)的馮·諾依曼架構,用存算一體技術做大算力AI芯片,對先進制程依賴度不是很強,可以用較低的制程實現(xiàn)較大算力,并且由于數(shù)據(jù)計算和數(shù)據(jù)存儲深度融合,避免了大部分數(shù)據(jù)的無效搬運,可以兼顧成本和能效,因此非常適合智能駕駛和自動駕駛應用場景。
AI大模型
推動算力集群效能優(yōu)化
“超級鸚鵡”ChatGPT和AIGC成為年度最大黑馬。
最近爆火的OpenAI旗下的對話模型ChatGPT,能夠理解用戶需求創(chuàng)造內(nèi)容、協(xié)助代碼編寫、能夠針對用戶的追問在后續(xù)對話中進行修正或補充。相較于蘋果 Siri、微軟小冰等,ChatGPT除了邏輯嚴密的創(chuàng)造能力之外,還具有記憶能力,在連續(xù)的對話中無需用戶提供重復信息,語言組織和表達能力也更接近人類水平,使對話更自然流暢。
同樣火熱的還有AIGC(Generative AI,生成式AI),一系列初創(chuàng)公司融資不斷,并且在實際應用中也體現(xiàn)出了較高的水準。百度AI十分鐘內(nèi)復原了《富春山居圖》殘卷,浪潮“源”支持的“金陵詩會”,使用者可一鍵創(chuàng)作韻味悠長的詩句……而除了自主生成文本、圖像,AI自主生成音頻、視頻、虛擬場景等也在成為熱潮。這些都推動了生成式AI的蓬勃發(fā)展,打造了新的數(shù)字內(nèi)容生成與交互形態(tài)。
Gartner將“生成式AI”列為2022年五大影響力技術之一,預測到2025年,生成式AI所創(chuàng)造的數(shù)據(jù)可占到所有已生產(chǎn)數(shù)據(jù)的10%。
業(yè)內(nèi)認為,ChatGPT和AIGC爆火,代表著AI大模型進入一個新的技術范式,同時也是第三波AI浪潮經(jīng)過十幾年發(fā)展之后,到達了一個非常重要的拐點。
它們代表著從以前的“大煉模型”(各自研發(fā)專用小模型),到“煉大模型”(研發(fā)超大規(guī)模通用智能模型)的一個范式轉(zhuǎn)變,其意義在于:通過這種比較先進的算法架構,盡可能多的數(shù)據(jù)匯集大量算力,通過集約化的訓練模式,從而供大量用戶使用。
AI發(fā)展至今,大模型的出現(xiàn)可以說是生逢其時,它將碎片化的AI應用開發(fā)轉(zhuǎn)向集中式開發(fā)。一方面,AI大模型具備很好的泛化能力,一個模型可以支撐各類不同應用,有效緩解碎片化開發(fā)反復建模的困境;另一方面,圍繞AI大模型構建的算法基礎設施,比如開放的API、開源的應用代碼等,使開發(fā)者無需關心底層技術,設置無需配置編程環(huán)境,就可以直接將應用構建于AI大模型的能力之上,在降低開發(fā)門檻的同時,讓開發(fā)人員將更多精力聚焦在核心業(yè)務邏輯上。
從算力的角度來看,挑戰(zhàn)不可謂不大。因為訓練大模型所需要的算力是海量的,成本是高昂的,這就需要發(fā)揮AI算力集群的整體效能,讓AI算力能夠“算”盡其用,從而降低大模型訓練的成本。當前,基于液冷等技術的算力產(chǎn)品,將軟件層面(模型和框架)與硬件基礎設施(計算、存儲、網(wǎng)絡)進行協(xié)同優(yōu)化的方案,都是業(yè)界較為推崇的方式。一方面能在高算力集群上能實現(xiàn)更好的算力利用率,另一方面也能降低電力消耗,降低整體成本。
可以說,AI大模型的投入是AI技術邁向新臺階的必經(jīng)之路,是解決產(chǎn)業(yè)碎片化的一種方式。AI大模型的發(fā)展與商業(yè)落地,有望重塑AI算力與AI應用的市場格局。隨著大模型的數(shù)量走向集約,有利于AI芯片進行更有針對性的設計開發(fā)與優(yōu)化,這是AI算力企業(yè)生態(tài)重建的新機會,也是國產(chǎn)AI芯片在國際巨頭林立的市場中突圍的機會。
寫在最后
不破不立,破而后立。大破大立,曉喻新生。
寫在AI芯片踏實走過的2022年。