一方面,大模型的成熟是一個循序漸進的過程?;鹕揭嫫囆袠I(yè)總經(jīng)理楊立偉表示,大模型的成熟應(yīng)該是厚積薄發(fā)的,新技術(shù)滿足舊需求,舊技術(shù)滿足新需求,而非用新技術(shù)做新場景。信息數(shù)據(jù)是制約大模型持續(xù)訓(xùn)練的主要因素。
火山引擎汽車行業(yè)總經(jīng)理楊立偉;圖片來源:蓋世汽車
他認為,在ChatGPT4.0出現(xiàn)之前,最大的大模型就是人的大腦,應(yīng)將外部大模型和內(nèi)部大模型結(jié)合起來,找尋可落地的場景。當人或機器某一方犯錯時,能通過人和機器共同決策,以最終結(jié)果來做出靠譜的決策。
在廣泛的應(yīng)用場景里,大模型遠不如人類思考能力,需要通過Transformer模型、多模態(tài)的數(shù)據(jù)、規(guī)劃訓(xùn)練端平臺對大模型進行打磨訓(xùn)練,讓其得以處理更復(fù)雜的事情。
路川認為,要做好大模型,需要滿足以下幾個點:
第一點是基于Transformer的模型結(jié)構(gòu);第二點是需要用到更多的數(shù)據(jù),或者是用一些多模態(tài)的數(shù)據(jù),去訓(xùn)練大模型的業(yè)務(wù),以滿足一些復(fù)雜業(yè)務(wù)場景的需求;第三是計算平臺層面的支撐,大模型的訓(xùn)練需要強大的算力資源,傳統(tǒng)的計算模式已經(jīng)很難滿足,在訓(xùn)練端用集群的方式去構(gòu)建一個分布式的系統(tǒng),對于大模型來說是必須的,這樣才能有一個比較好的訓(xùn)練速度,快速迭代,讓大模型應(yīng)用在真實的業(yè)務(wù)場景中成為可能。
從成本的方面考量,大模型帶來的訓(xùn)練、推理、數(shù)據(jù)等方面的成本飆升是不得不考慮的問題,以及對算法、芯片算力等方面的要求持續(xù)高漲。
楊繼峰指出,從算力形態(tài)角度大規(guī)模分布式推理平臺的形態(tài)和能力也還需要一些時間,同時下一代的專用芯片、GPU、通信問題也都在路上。
針對這些問題,業(yè)界持續(xù)思考解決方案。黃駿表示,座艙智能化帶來的算力缺乏問題要求跨域融合或大算力芯片??紤]到汽車行業(yè)的計算業(yè)務(wù)規(guī)模相對較小,嵌入式NPU集成于設(shè)備中,可分擔GPU的部分工作,提供更高計算性能的同時降低功耗。嵌入式NPU的AI開發(fā)利用NPU加速AI應(yīng)用,能大幅降低硬件成本,將成為OEM在AI業(yè)務(wù)投資和單車收效中關(guān)鍵的一環(huán)。
此外,使用大模型還小模型這筆賬該怎么算?大模型的企業(yè)嘗試著用更大參數(shù)量的模型解決更多的問題。而主機廠傾向于用更小的模型去解決特定的問題,并且以更低的工程成本去實現(xiàn)應(yīng)用。
路川提到,如智能駕駛是一個非常復(fù)雜的場景,把一些業(yè)務(wù)通過一個通用的模型進行融合,讓大模型成為車載大腦提供完善的智能服務(wù),是未來探索的一個方向,也是未來大模型一個可能應(yīng)用的領(lǐng)域。
中科創(chuàng)達物聯(lián)網(wǎng)事業(yè)群副總裁楊新輝預(yù)測,下一個時代可能將圍繞于汽車產(chǎn)業(yè)和機器人產(chǎn)業(yè)的融合,而汽車正處于機器人和汽車機器人之間的過渡階段。未來的大模型可能在混合方面發(fā)生變化,一是在云端和邊端組合的層面,二是在大模型和小模型混合的層面。
中科創(chuàng)達物聯(lián)網(wǎng)事業(yè)群副總裁楊新輝;圖片來源:蓋世汽車
真正的挑戰(zhàn)是深入到汽車產(chǎn)業(yè)各個層面的。
“我們在同時面臨著的模型層面的爆發(fā)、工程層面的爆發(fā)、應(yīng)用層面的爆發(fā)、生態(tài)層面的爆發(fā)、產(chǎn)業(yè)層面的爆發(fā),而我們在研發(fā)結(jié)構(gòu)調(diào)整和組織能力調(diào)整上好像還有很長的路要走。”楊繼峰感嘆。
大模型深入賦能汽車產(chǎn)業(yè)并非可以一蹴而就,這需要相關(guān)企業(yè)持續(xù)創(chuàng)新、與時俱進,也需要整體的汽車產(chǎn)業(yè)鏈做好迎接變革的準備。
激進與謹慎,蓄勢待發(fā)的產(chǎn)業(yè)鏈
大模型時代,新的商業(yè)模式正在出現(xiàn)。