應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

百度端到端語(yǔ)音語(yǔ)言大模型發(fā)布,成本宣稱最高降 90%

2025-04-01 09:05 IT之家

導(dǎo)讀:百度發(fā)布首個(gè)基于全新互相關(guān)注意力(Cross-Attention)的端到端語(yǔ)音語(yǔ)言大模型。

  3 月 31 日消息,在百度 AI DAY 上,百度發(fā)布首個(gè)基于全新互相關(guān)注意力(Cross-Attention)的端到端語(yǔ)音語(yǔ)言大模型,宣布實(shí)現(xiàn)超低時(shí)延與超低成本,在電話語(yǔ)音頻道的語(yǔ)音問(wèn)答場(chǎng)景中,調(diào)用成本較行業(yè)均值下降約 50%-90%。

  當(dāng)日,文小言宣布品牌煥新,率先接入該模型,還帶來(lái)多模型融合調(diào)度、圖片問(wèn)答等功能升級(jí)。接入該模型后,文小言不僅能支持更擬真的語(yǔ)聊效果,而且支持重慶、廣西、河南、廣東、山東等特色方言。據(jù)介紹,語(yǔ)音大模型具備極低的訓(xùn)練和使用成本,極快的推理響應(yīng)速度,語(yǔ)音交互時(shí),可將用戶等待時(shí)長(zhǎng)從行業(yè)常見(jiàn)的 3-5 秒降低至 1 秒左右。

  更新后的文小言還支持“多模型融合調(diào)度”,整合了百度自研的文心 X1、文心 4.5 等模型,并接入 DeepSeek-R1 等第三方優(yōu)質(zhì)模型,實(shí)現(xiàn)了多模型間的智能協(xié)同。用戶可以選擇“自動(dòng)模式”,一鍵調(diào)用最優(yōu)模型組合,也可根據(jù)需求選擇單一模型完成特定任務(wù),提升響應(yīng)速度與任務(wù)處理能力。

  從活動(dòng)中獲悉,文小言還加強(qiáng)了圖片問(wèn)答功能,用戶拍攝或上傳圖片,以文字或語(yǔ)音提問(wèn)即可直接獲取深度解析。例如,拍攝一道數(shù)學(xué)題可實(shí)時(shí)生成解題思路與視頻解析;上傳多款商品圖可對(duì)比參數(shù)、價(jià)格,輔助購(gòu)物決策。

  此外,文小言新增“圖個(gè)冷知識(shí)”功能,用戶可預(yù)設(shè)“歷史學(xué)者”“科技達(dá)人”等人設(shè)視角,為同一圖片賦予多維解讀。例如,當(dāng)用戶詢問(wèn)“貓窗探秘,為何貓愛(ài)窗邊的科學(xué)真相?”,文小言能從狩獵本能、能量獲取、領(lǐng)地意識(shí)等角度給出獨(dú)特解讀。

  百度語(yǔ)音首席架構(gòu)師賈磊透露,該模型是百度在業(yè)界首個(gè)推出、基于全新互相關(guān)注意力 (Cross-Attention) 的端到端語(yǔ)音語(yǔ)言大模型?!?strong>在語(yǔ)音場(chǎng)景滿足一定交互指標(biāo)下,大模型調(diào)用成本比行業(yè)平均降低 50%-90%,推理響應(yīng)速度極快,將語(yǔ)音交互等待時(shí)間壓縮至 1 秒左右,極大提升了交互流暢性。同時(shí),在大模型加持下,實(shí)現(xiàn)了流式逐字的 LLM 驅(qū)動(dòng)的多情感語(yǔ)音合成,情感飽滿、逼真、擬人,交互聽(tīng)感也得到極大提升?!?/p>