應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

兼顧邊緣AI能效與成本,Arm新一代Ethos-U NPU面世

2024-04-15 17:59 物聯(lián)傳媒

導(dǎo)讀:Ethos-U85關(guān)鍵特性是釋放大模型和多模態(tài)AI在邊緣部署的巨大潛力。

將計(jì)算資源部署在邊緣和終端并不少見(jiàn),目的是提升指令響應(yīng)速度、節(jié)省帶寬資源、提高數(shù)據(jù)安全與隱私性等。并且隨著大模型與多模態(tài)AI的快速發(fā)展,邊緣與端側(cè)AI處理需求快速增長(zhǎng),邊緣AI同時(shí)迎來(lái)在性能、功耗、能效、成本等方面的挑戰(zhàn)。

近日,Arm宣布推出第三代面向邊緣AI的NPU產(chǎn)品Arm Ethos-U85 NPU,同時(shí)推出了能為語(yǔ)音、音頻和視覺(jué)等邊緣AI應(yīng)用提供支持的全新物聯(lián)網(wǎng)參考設(shè)計(jì)平臺(tái)Arm Corstone-320,再次擴(kuò)大了軟硬件協(xié)同的邊緣AI產(chǎn)品與服務(wù)矩陣。

其中Ethos-U85與上一代產(chǎn)品相比性能提升了四倍,能效提升了20%,可在主流網(wǎng)絡(luò)上實(shí)現(xiàn)高達(dá)85%的利用率,可滿足工廠自動(dòng)化和商用或智能家居攝像頭等物聯(lián)網(wǎng)應(yīng)用不斷攀升的性能需求。

Arm Corstone-320物聯(lián)網(wǎng)參考設(shè)計(jì)平臺(tái)則結(jié)合了領(lǐng)先的嵌入式IP、軟件、工具和支持,以預(yù)先集成、以預(yù)先驗(yàn)證的模式,為合作伙伴縮短用于邊緣智能芯片的開(kāi)發(fā)時(shí)間且降低開(kāi)發(fā)復(fù)雜度和開(kāi)發(fā)成本,加快產(chǎn)品上市。

“軟硬件必須協(xié)同工作才能釋放AI處理的最大潛能。Arm不僅僅聚焦我們的處理器IP,更是在軟件與工具鏈方面加強(qiáng)投資,確保我們領(lǐng)先于行業(yè),以滿足更簡(jiǎn)單、快速的高性能邊緣AI系統(tǒng)的開(kāi)發(fā)需求,支持諸多AI算子與應(yīng)用在Arm計(jì)算平臺(tái)上的優(yōu)化運(yùn)行,使邊緣AI在Arm平臺(tái)上枝繁葉茂?!盇rm物聯(lián)網(wǎng)事業(yè)部業(yè)務(wù)拓展副總裁馬健(Chloe Ma)在媒體溝通會(huì)上表示。

Ethos-U85關(guān)鍵特性是釋放大模型和多模態(tài)AI在邊緣部署的巨大潛力

近年來(lái)生成式AI大模型的快速發(fā)展與Transformer深度神經(jīng)網(wǎng)絡(luò)的出現(xiàn)有極大關(guān)系。與上一代CNN、RNN架構(gòu)相比,Transformer將模型參數(shù)提升到了幾十億、幾百億甚至上千億,模型的復(fù)雜程度和學(xué)習(xí)能力快速提高,尤其在機(jī)器翻譯、自然語(yǔ)言理解、語(yǔ)音識(shí)別、圖像字幕生成等AI任務(wù)中有優(yōu)異表現(xiàn)。

相比Arm Ethos-U系列前代產(chǎn)品甚至是行業(yè)中很多邊緣AI加速器,Ethos-U85的關(guān)鍵特性之一正是在支持CNN和RNN基礎(chǔ)上,增加了對(duì)Transformer架構(gòu)的支持。

尤其因?yàn)橘Y源受限,大模型往往需要變成相對(duì)小的模型才更適合部署在邊緣設(shè)備。基于Transformer的大模型可以被調(diào)整和壓縮,支持在不過(guò)多影響準(zhǔn)確度的情況下,高效運(yùn)行于邊緣設(shè)備上。

Ethos-U85的主要特性包括:

  • 單周期支持從128到2048個(gè)MAC單元的配置——在1GHz時(shí),算力可支持從256GOPS到4TOPS。

  • 支持int8權(quán)重和int8或int16激活。

  • 支持Transformer架構(gòu)網(wǎng)絡(luò),以及CNNRNN。

  • 支持TensorFlow LitePyTorchAI框架。

  • 硬件原生支持2/4稀疏性,使吞吐量翻倍。

  • 內(nèi)部SRAM為29至267KB,多達(dá)六個(gè)128位AXI5接口。

  • 支持權(quán)重壓縮,采用標(biāo)準(zhǔn)和快速權(quán)重編碼器。

  • 支持?jǐn)U展壓縮。

111.png

除了計(jì)算能力大幅提升,大模型和生成式AI另一大優(yōu)勢(shì)是對(duì)多模態(tài)的支持。例如一些智能家居應(yīng)用需求已經(jīng)從單一模型支持不同的傳感器,升級(jí)到統(tǒng)一模型支持不同的多模態(tài)傳感器輸入。多模態(tài)AI就像家庭大腦,可以更安全、更智能地營(yíng)造個(gè)性化家庭居住體驗(yàn),而這也對(duì)AI算力提出更高要求。

至于Ethos-U85適用的場(chǎng)合,既包括需要AI加速的低功耗MCU系統(tǒng)如智能家居、零售、工業(yè)等新興邊緣AI應(yīng)用場(chǎng)景,也包括高性能邊緣計(jì)算系統(tǒng)如工業(yè)機(jī)器視覺(jué)、邊緣網(wǎng)關(guān)、可穿戴設(shè)備、消費(fèi)類(lèi)機(jī)器人等。具體在執(zhí)行更高性能設(shè)備的邊緣推理需求時(shí),Arm在設(shè)計(jì)Ethos-U85之初就考慮了將其與領(lǐng)先的Armv9 Cortex-A CPU相結(jié)合,以加速處理機(jī)器學(xué)習(xí)任務(wù)。

Corstone-320提供安全可靠的軟硬件組合以加快產(chǎn)品上市

在硬件IP方面,Corstone-320集成了Cortex-M系列最高性能的嵌入式處理器Cortex-M85(滿足視覺(jué)應(yīng)用的能效、性能、安全等需求),以及全新的Ethos-U85 NPU AI加速器,還結(jié)合了Arm Mali-C55 ISP,確保實(shí)現(xiàn)視覺(jué)應(yīng)用圖像處理和能效需求。

在軟件方面,Corstone-320集成了固件、所有IP的驅(qū)動(dòng)程序、中間件、實(shí)時(shí)操作系統(tǒng)和云集成、ML模型和參考應(yīng)用程序,有效幫助軟件開(kāi)發(fā)者選擇其特定細(xì)分市場(chǎng)所需的組件和工具構(gòu)建物聯(lián)網(wǎng)堆棧。軟件中還包含了固定虛擬平臺(tái)(FVP),用于對(duì)構(gòu)成完整FPGA系統(tǒng)的外設(shè)進(jìn)行建模。通過(guò)使用FVP,軟件開(kāi)發(fā)者無(wú)需硬件即可開(kāi)始開(kāi)發(fā)應(yīng)用,從而加快開(kāi)發(fā)速度。

總的來(lái)說(shuō),新推出的Ethos-U85和Corstone-320參考設(shè)計(jì)平臺(tái)滿足了語(yǔ)音、音頻和視覺(jué)邊緣AI應(yīng)用更高計(jì)算性能的需求,同時(shí)沿用了Arm軟件與AI開(kāi)發(fā)者熟知的工具鏈,具有投資復(fù)用、上手容易等優(yōu)勢(shì),能夠加速整個(gè)物聯(lián)網(wǎng)生態(tài)實(shí)現(xiàn)AI和ML的轉(zhuǎn)型。

222.png

基于 Arm技術(shù)的物聯(lián)網(wǎng)ML/AI芯片及解決方案持續(xù)擴(kuò)展

Arm在ML和AI生態(tài)方面始終有持續(xù)投入。

2019年,Arm開(kāi)始在Armv8.1-M架構(gòu)中增加Helium矢量擴(kuò)展技術(shù),至今Cortex-M52、Cortex-M55和Cortex-M85都已引入Helium技術(shù),使嵌入式和IoT開(kāi)發(fā)者可以繼續(xù)基于Cortex-M設(shè)計(jì)ML和AI芯片解決方案。

Arm迄今推出的專(zhuān)用AI加速器包括Ethos-U55、Ethos-U65、Ethos-U85,

以進(jìn)一步適應(yīng)邊緣AI和嵌入式AI的市場(chǎng)需求。包括恩智浦半導(dǎo)體的i.MX系列、英飛凌的PSoC Edge和Alif Semiconductor的Ensemble系列等,都搭載了Ethos-U55和Ethos-U65AI微加速器。AlifSemiconductor和英飛凌更是全新ArmEthos-U85NPU的早期采用者。

Arm也發(fā)布了多種物聯(lián)網(wǎng)參考設(shè)計(jì),比如Corstone-300、Corstone-310、Corstone-1000及最新的Corstone-320。這些參考設(shè)計(jì)不僅包括了Arm或集成了合作伙伴IP的子系統(tǒng),還包括必要的ML工具鏈及適用目標(biāo)用例的AI模型。

對(duì)于未來(lái)AI產(chǎn)品及應(yīng)用的發(fā)展方向,Arm認(rèn)為“大小模型云邊端結(jié)合”將是重要趨勢(shì)。尤其邊緣部署大模型和生成式AI用例指日可待,Arm也已經(jīng)為此做好準(zhǔn)備,來(lái)挑戰(zhàn)物聯(lián)網(wǎng)與大模型/多模態(tài)AI結(jié)合的成本、性能與效率極限!這想必也符合物聯(lián)網(wǎng)產(chǎn)業(yè)對(duì)大模型與生成式AI應(yīng)用最實(shí)際的期待。