文|白鴿 魏琳華
編|王一粟
2月28日凌晨,OpenAI發(fā)布最新GPT-4.5模型,該產(chǎn)品一經(jīng)上線,就備受網(wǎng)友吐槽,吐槽的點(diǎn)集中在價(jià)格貴得離譜,反應(yīng)又特別慢。
其中,X 網(wǎng)友 @Colin Fraser 實(shí)測的一道邏輯謎題出現(xiàn)嚴(yán)重錯誤。價(jià)格方面,GPT4.5 API價(jià)格不僅遠(yuǎn)超DeepSeek R1,輸入每百萬Tokens75 美元的價(jià)格甚至比GPT-4o的2.5美元還貴30倍。
“GPT4.5的定價(jià)非常高,如果這些模型沒有顯著改進(jìn),我會感到失望。”X 網(wǎng)友 Casper Hansen 發(fā)帖說道。
可以看到,OpenAI此次發(fā)布會略顯倉促,甚至OpenAI CEO奧特曼因需要照顧剛出生的孩子沒有到達(dá)發(fā)布會現(xiàn)場。而如此倉促的背后,或許是受到了來自中國大模型趕超的壓力。
2月28日,百度正式官宣將于3月16日上線文心大模型最新版4.5,不僅在基礎(chǔ)模型能力上有大幅提升,且具備原生多模態(tài)、深度思考等能力。此前,百度還宣布將從6月30日起,將文心4.5開源。
前段時間火出圈兒的DeepSeek發(fā)布的DeepSeek-R1大模型,不僅在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上,性能比肩 OpenAI o1 正式版,更重要的是對算力資源的極致利用,讓成本做到了最低。這也令國外同行在《自然》雜志上驚呼:“這太瘋狂了,完全出乎意料”。
而這第二場競賽的關(guān)鍵,除了比拼大模型的基礎(chǔ)能力外,更考驗(yàn)對成本的控制和開源生態(tài)的建設(shè)。畢竟,這些綜合因素,都是關(guān)乎大模型是否能夠真正實(shí)現(xiàn)大規(guī)模落地應(yīng)用的根本。
事實(shí)上,此前中國的大模型一直被看作是OpenAI的追隨者,從大語言模型,到多模態(tài)大模型,再到推理大模型,都緊跟在OpenAI之后。
但現(xiàn)在,“中國在生成式AI領(lǐng)域正在趕超美國,甚至在視頻生成等領(lǐng)域,中國似乎已處于領(lǐng)先地位。”著名人工智能研究學(xué)者、DeepLearning.AI創(chuàng)始人吳恩達(dá)在博客中如此寫道。
從追趕到超越,基礎(chǔ)大模型的開年之戰(zhàn)
放在半年前,OpenAI每發(fā)布一次大模型,便會引起圈內(nèi)的一次“地震”。但這次,定價(jià)昂貴、性能一般的GPT-4.5,讓OpenAI遭遇了第一次在模型上的滑鐵盧。
GPT-4.5的“失靈”,正是中美大模型實(shí)力博弈的一個注腳,它映射出當(dāng)前大模型圈的地位變更——和開啟狂卷模式的其他公司相比,OpenAI能帶來的技術(shù)突破越來越有限,且極其沒有性價(jià)比。
與之相反的則是國內(nèi)大模型公司們,正集體在2025年密集“秀肌肉”。2025開年以來,即使在中國人最忙碌的春節(jié)前后,大模型公司們?nèi)匀槐3种鴺O快的速度發(fā)布新的大模型。
不同于2022年底開始,國內(nèi)大模型爭分奪秒,只為和海外公司縮小差距的第一場競爭,這一次,由國內(nèi)發(fā)起的大模型“第二場競速”,目標(biāo)直指在各方面超越海外的頂尖成果。
從性能、訓(xùn)練成本、推理成本再到模型架構(gòu)等方面橫向?qū)Ρ�,這是一次中國大模型界的“百花齊放”:
火爆出圈的DeepSeek,不僅性能直追OpenAI的推理模型,還把訓(xùn)練及推理成本打了下來;MiniMax的新模型不再遵循海外公認(rèn)的Transformer架構(gòu),而是改成了更利于上下文記憶的線性注意力機(jī)制;月之暗面的推理模型K1.6尚未正式發(fā)布,但已經(jīng)在基準(zhǔn)測試平臺LiveCodeBench上登頂?shù)谝�,超過了OpenAI的o3-mini。
在技術(shù)無限縮小甚至超越的基礎(chǔ)上,中國大模型開始找回自己的主場優(yōu)勢,對于Day 1就在思考落地問題的大模型公司來說,誰能在技術(shù)優(yōu)勢的基礎(chǔ)上,找到落地場景的最優(yōu)解,就能贏得接下來的應(yīng)用卡位賽。
對于既有流量、又有生態(tài)優(yōu)勢的大廠來說,場景化本就是他們的優(yōu)勢。而在DeepSeek爆火后,他們在這場大模型之戰(zhàn)中放出了相當(dāng)有誠意的動作。
以百度為例,它算得上是大廠梯隊(duì)中最下血本的一家。
2月13日,百度宣布文心一言將于4月1日0時起全面免費(fèi),所有PC端和APP端用戶均可體驗(yàn)文心系列最新模型,這其中就包括要在3月16日正式上線的文心一言4.5。在OpenAI大舉商業(yè)化旗幟,開售200美元會員月費(fèi)的當(dāng)下,百度能把最頂尖的模型免費(fèi)拿出來,已經(jīng)夠有誠意。
在免費(fèi)的基礎(chǔ)上,百度還準(zhǔn)備把文心一言4.5開源。
在這場席卷而來的大模型之戰(zhàn)中,李彥宏快速找到了卷模型背后的關(guān)鍵問題。
“我想強(qiáng)調(diào)的是,無論開源閉源,基礎(chǔ)模型只有在大規(guī)模解決現(xiàn)實(shí)問題時,才具備真實(shí)價(jià)值。”李彥宏說。
追趕海外頂尖技術(shù)的同時,中國大模型已經(jīng)跳出了固有的競爭框架,在這場中美大模型的博弈中,大模型公司們正在思考彎道超車的可能性。
大模型開源背后,中國企業(yè)對成本的極致優(yōu)化
春節(jié)后的一個月,在中國大模型市場掀起了一股DeepSeek接入潮。截至目前,已經(jīng)有近200多家企業(yè)官宣將深度接入DeepSeek大模型產(chǎn)品。
不僅是百度AI搜索、百度文庫等C端產(chǎn)品,B端的云廠商也在MaaS服務(wù)平臺中,集成DeepSeek大模型,為客戶提供相關(guān)API調(diào)用服務(wù),還考慮圍繞DeepSeek推出私有化部署的方案。
比如,百度智能云千帆接入 DeepSeek-R1/V3模型,上線首日就有超1.5萬家客戶通過千帆平臺進(jìn)行模型調(diào)用。而百度智能云旗下客悅、曦靈、一見、甄知四款大模型應(yīng)用產(chǎn)品,正式上線接入DeepSeek模型的全新版本。
除了應(yīng)用層外,百度在基礎(chǔ)設(shè)施層面也深度適配了DeepSeek,如基于昆侖芯P800,百度百舸發(fā)布部署 “滿血版DeepSeek R1+聯(lián)網(wǎng)搜索” 服務(wù),能夠?yàn)槠髽I(yè)提供及時、準(zhǔn)確的信息支持。
針對企業(yè)私有化部署需求,百度智能云發(fā)布DeepSeek一體機(jī)解決方案,在私有化部署層面搭載昆侖芯P800的百舸、千帆、一見一體機(jī)產(chǎn)品,可支持在單機(jī)環(huán)境下一鍵部署DeepSeek R1/V3全系列模型,提供開箱即用的便捷體驗(yàn),在確保性能與安全合規(guī)的情況下,能夠助力企業(yè)快速實(shí)現(xiàn)模型部署落地。
目前,針對企業(yè)私有化部署需要,除百度智能云外,其他云廠商也紛紛在部署相關(guān)DeepSeek一體機(jī)解決方案,但相比較來說,自研GPU芯片的百度,無疑更具有成本優(yōu)勢。
事實(shí)上,此次百度宣布大模型開源和免費(fèi)的底氣,就來源于從底層基礎(chǔ)設(shè)施,到上層工具鏈,以及大模型推理應(yīng)用的體系化技術(shù)創(chuàng)新。
從底層基礎(chǔ)設(shè)施來看,百度自研的昆侖芯性價(jià)比極高,得益于昆侖芯的成本優(yōu)勢,百度智能云率先點(diǎn)亮了首個國產(chǎn)萬卡算力集群,能夠?yàn)榇竽P偷牟渴鸷蛻?yīng)用提供穩(wěn)定的算力支持。
據(jù)外部猜測,此次文心一言全面開放功能,背后最大的原因之一是推理成本不斷降低。
該分析人士表示,百度在模型推理部署方面有比較大的優(yōu)勢,尤其是在飛槳深度學(xué)習(xí)框架的支持下,其中并行推理、量化推理等都是飛槳在大模型推理上的自研技術(shù)。飛槳和文心的聯(lián)合優(yōu)化可以實(shí)現(xiàn)推理性能提升,推理成本降低。
當(dāng)然,大模型最關(guān)鍵的,還在于找到具體的應(yīng)用場景,能夠?qū)崿F(xiàn)真正的應(yīng)用落地。
有數(shù)家做企業(yè)服務(wù)的銷售人員對光錐智能表示:“大模型來了之后,咨詢的企業(yè)增多,但真正落地應(yīng)用的比較少。”比如在企業(yè)OA系統(tǒng)中,集成DeepSeek大模型,更多的是為企業(yè)提供知識問答能力,在一些智能客服場景中,大模型的能力優(yōu)勢更為凸顯。
就像百度在客悅、曦靈、一見、甄知四款自身應(yīng)用產(chǎn)品中,上線接入DeepSeek模型的新版本,業(yè)務(wù)以企業(yè)智能外呼、數(shù)字人視頻腳本生成、視覺智能分析、知識管理等場景為主。
無疑,依托全棧自研四層技術(shù)架構(gòu)(云、深度學(xué)習(xí)框架、模型、應(yīng)用),百度能夠?qū)崿F(xiàn)端到端優(yōu)化,不僅大幅提升了模型訓(xùn)練和推理的效率,還進(jìn)一步降低了綜合成本。
總的來說,當(dāng)前大模型技術(shù)發(fā)展如此之快,則必須要持續(xù)投入,以確保處于技術(shù)創(chuàng)新的最前沿。
“我們?nèi)孕鑼π酒?shù)據(jù)中心和云基礎(chǔ)設(shè)施進(jìn)行持續(xù)投入,來訓(xùn)練更好更智能的下一代模型。”李彥宏說道,為此,需要使用更多的算力來嘗試不同的路徑。也許,在某個時刻,你會找到一條捷徑,比如說只需600萬美元就能訓(xùn)練出一個模型,但在此之前,你可能已經(jīng)花費(fèi)了數(shù)十億美元來探索,哪條路才是花費(fèi)這600萬美元的正確途徑。
總之,只要用戶/客戶想要,中國公司沒有做不到。
事實(shí)上,于企業(yè)自身來說,前期研發(fā)成本投入是固定項(xiàng),只有當(dāng)技術(shù)真正投向應(yīng)用,讓更多的用戶來使用這個技術(shù),才能真正實(shí)現(xiàn)規(guī)模經(jīng)濟(jì)優(yōu)勢。
而擴(kuò)大規(guī)模經(jīng)濟(jì)優(yōu)勢的同時,只有通過技術(shù)降本,免費(fèi)和降價(jià)才能得以持續(xù)。
李彥宏曾表示:“今天,當(dāng)我們談?wù)摯笮驼Z言模型時,12個月內(nèi)推理成本基本上可以降低90%以上成本。并且,大模型的性能也越來越好。”
無疑,當(dāng)大模型推理應(yīng)用成本降得足夠低,就能夠讓大模型真正走向千行百業(yè),也勢必將真正地讓中國生成式AI實(shí)現(xiàn)彎道超車。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報(bào)生成中...