作者 | 金旺
來源 | 科技行者
2月13日,OpenAI CEO Sam Altman公開表示,“GPT-5將會(huì)在未來幾個(gè)月發(fā)布,并將對(duì)公眾開放免費(fèi)使用。”
直接跳過OpenAI o3,迎來免費(fèi)版GPT-5,這與最近一段時(shí)間DeepSeek火爆全球不無關(guān)系。
作為全球大模型領(lǐng)域主導(dǎo)者,OpenAI不能失去自己的鐵王座,DeepSeek V3/R1在過去兩個(gè)月里為全球人工智能產(chǎn)業(yè)帶來的沖擊,讓這一領(lǐng)域的頭部玩家們不得不重新思考人工智能的創(chuàng)新節(jié)奏。
就在本周,百度創(chuàng)始人李彥宏在World Governments Summit 2025峰會(huì)上也談到,“每12個(gè)月,大模型的推理成本就會(huì)降低90%以上,這比以往計(jì)算機(jī)革命都要快很多。”
那么,DeepSeek究竟為人工智能產(chǎn)業(yè)帶來了怎樣的變化?它又需要怎樣的算力底座?
01 DeepSeek的鯰魚效應(yīng)
2024年12月26日,國內(nèi)一家成立僅一年多的AI團(tuán)隊(duì)發(fā)布了一個(gè)名為DeepSeek V3的模型,這個(gè)模型是在14.8萬億高質(zhì)量token上進(jìn)行預(yù)訓(xùn)練,并通過監(jiān)督微調(diào)和強(qiáng)化學(xué)習(xí)進(jìn)一步提高了模型的性能。
相較于五個(gè)月前發(fā)布的上一版本模型,這次他們采用了多頭潛在注意力 (MLA)和MoE架構(gòu),并引入了無輔助損失的負(fù)載均衡策略和多token預(yù)測訓(xùn)練目標(biāo),這樣的好處是能夠?qū)崿F(xiàn)高效推理和低成本訓(xùn)練。
僅僅是在一個(gè)月后,這個(gè)團(tuán)隊(duì)又發(fā)布了一個(gè)新模型,DeepSeek R1。
這次,他們僅用相當(dāng)于OpenAI o1三十分之一的成本卻實(shí)現(xiàn)了比肩OpenAI o1的性能,尤其DeepSeek R1還以開源形式公開了它的思維鏈,這讓DeepSeek迅速火爆全球。
在這之后,我們看到,全球人工智能領(lǐng)域在短短一個(gè)月內(nèi)經(jīng)過了多次思想上的碰撞,推動(dòng)了全球人工智能產(chǎn)業(yè)鏈的變革。
這場變革主要體現(xiàn)在三個(gè)方面:
第一,加速基座大模型創(chuàng)新。
此前,基座大模型的市場已經(jīng)開始向幾家頭部AI玩家聚集,DeepSeek R1的出現(xiàn),就像一條鯰魚,加快了基座大模型的競爭和創(chuàng)新速度。
我們不僅能看到OpenAI官方將在未來幾個(gè)月里推出免費(fèi)版本的GPT-5,還看到了近期頭部AI玩家紛紛發(fā)布了性能更強(qiáng)的基座大模型,例如阿里發(fā)布了Qwen 2.5-Max,谷歌也發(fā)布了Gemini 2.0系列模型。
此外,頭部AI玩家紛紛加大了技術(shù)投入以維持自己的領(lǐng)先優(yōu)勢(shì)。
例如,Meta創(chuàng)始人扎克伯格官宣加大2025年的AI投資,預(yù)計(jì)2025年在AI領(lǐng)域至少投入600-650億美元(2024年為400億美元)。
與此同時(shí),谷歌的AI投資也將從525億美元增加到750億美元。
第二,加速應(yīng)用創(chuàng)新。
在過去一個(gè)月里,我們看到國內(nèi)四大云廠商接入了DeepSeek,看到國內(nèi)三大運(yùn)營商跑步接入了DeepSeek,與此同時(shí),我們也看到在B端市場,越來越多企業(yè)正在加快接入DeepSeek。
有數(shù)據(jù)顯示,自DeepSeek R1發(fā)布后,僅僅20天內(nèi),國內(nèi)外就已經(jīng)有160多家企業(yè)接入了DeepSeek。
第三,加速大模型普及。
據(jù)QuestMobile統(tǒng)計(jì)數(shù)據(jù)顯示,DeepSeek日活躍用戶數(shù)在2月1日突破了3000萬大關(guān),刷新了全球最快達(dá)成3000萬日活用戶榜單。
另一組來自Xsignal的數(shù)據(jù)顯示,截至2月8日,DeepSeek國內(nèi)APP端日活用戶數(shù)達(dá)到了3494萬,海外APP端日活用戶數(shù)達(dá)到了3685萬,全球Web端日活更是達(dá)到4800萬,全球日活用戶總量達(dá)到1.19億。
用戶數(shù)的爆炸式增長,讓DeepSeek成為繼ChatGPT后大模型在消費(fèi)市場普及的又一拐點(diǎn),再次加速了大模型在消費(fèi)市場的普及,以及更多大模型應(yīng)用的涌現(xiàn)。
如果深究這場人工智能產(chǎn)業(yè)變革的本質(zhì),實(shí)際上是DeepSeek通過模型結(jié)構(gòu)、計(jì)算通信、后訓(xùn)練和推理等方面極致的工程優(yōu)化,提升了算力利用率。
在這一過程中,DeepSeek的模型訓(xùn)練效率提升了2~3倍,推理效率提升了5~7倍,與此同時(shí),在整體訓(xùn)練成本降低了60%的同時(shí),模型性能提升了20%。
而在DeepSeek加速大模型技術(shù)創(chuàng)新和普及應(yīng)用時(shí),穩(wěn)定可靠的算力底座,依舊是模型創(chuàng)新的根本。
02 昇騰提供的“最優(yōu)解”
2月4日,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上線昇騰社區(qū),支持一鍵獲取DeepSeek系列模型,支持在昇騰硬件平臺(tái)上開箱即用。
作為原生支持昇騰的DeepSeek,這時(shí)在國內(nèi)已經(jīng)有不少企業(yè)基于昇騰完成了DeepSeek的快速上線。
實(shí)際上,早在2024年,昇騰團(tuán)隊(duì)就已經(jīng)在研究并行解碼技術(shù),這與DeepSeek V3/R1特有的多頭潛在注意力機(jī)制不謀而合。
2024年12月26日,在Deepseek-V3上線并開源后,昇騰、硅基流動(dòng)與DeepSeek團(tuán)隊(duì)進(jìn)行了多次座談,共同研討聯(lián)合創(chuàng)新的機(jī)會(huì)。
在這之后,昇騰成了業(yè)界首個(gè)適配完成DeepSeek核心算法,支持DeepSeek全系模型預(yù)訓(xùn)練及微調(diào),也是國內(nèi)業(yè)界唯一一個(gè)從預(yù)訓(xùn)練到微調(diào)全流程適配DeepSeek的AI訓(xùn)練平臺(tái)。
相關(guān)數(shù)據(jù)顯示,目前各行業(yè)已有80+企業(yè)基于昇騰快速適配/上線了DeepSeek系列模型并在對(duì)外提供服務(wù),此外,還有20+企業(yè)在適配測試中,預(yù)計(jì)在未來兩周內(nèi)全部完成上線,總體而言,國內(nèi)70%的企業(yè)基于昇騰快速上線。
為什么這么多企業(yè)會(huì)選擇基于昇騰平臺(tái)來上線DeepSeek?
我們了解到,昇騰是目前進(jìn)行DeepSeek部署的“最優(yōu)解”。
就訓(xùn)練能力而言,昇騰超節(jié)點(diǎn)支持DeepSeek全系模型預(yù)訓(xùn)練及微調(diào),支持DualPipe、跨節(jié)點(diǎn)All2All等DeepSeek核心優(yōu)化技術(shù),超大帶寬通信域更適合DeepSeek的流水線并行算法及冗余專家等能力。
DeepSeek R1是強(qiáng)化學(xué)習(xí)RL模型,昇騰超節(jié)點(diǎn)是更適合DeepSeek V3/R1的解決方案。
就推理能力而言,昇騰通過并行推理優(yōu)化技術(shù)+專家負(fù)載均衡能力,助力DeepSeek模型推理吞吐性能提升30%+。
DeepSeek小專家創(chuàng)新架構(gòu),帶來的是通信耗時(shí)及專家負(fù)載不均挑戰(zhàn),更多的小專家并行,引入極大的通信開銷,更多專家的數(shù)據(jù)負(fù)載難以均衡。
昇騰平臺(tái)通過偽EP混合并行算法,通信優(yōu)化性能提升30%+,稀疏路由稠密化算法,訪存性能提升20%+,從而降低專家不均衡度,推理吞吐性能提升20%~35%。
此外,作為一個(gè)開放的AI基礎(chǔ)軟硬件平臺(tái),昇騰平臺(tái)打造了Atlas系列硬件、異構(gòu)計(jì)算架構(gòu)CANN、全場景AI框架昇思MindSpore、昇騰應(yīng)用使能以及一站式開發(fā)平臺(tái)ModelArts等全棧產(chǎn)品體系,并形成了規(guī)模龐大的產(chǎn)業(yè)生態(tài)。
據(jù)悉,截至2024年12月31日,昇騰已發(fā)展超過60硬件合作伙伴,330萬多開發(fā)者,2500多家行業(yè)合作伙伴,并共同孵化了150多個(gè)昇騰原生硬件產(chǎn)品,超過5800個(gè)解決方案。
面向DeepSeek掀起的這波大模型普及的技術(shù)浪潮,目前已有30+軟硬件伙伴基于昇騰推出DeepSeek一體機(jī)方案,昇騰一體機(jī)成了支持DeepSeek系列模型快速上線,支撐客戶生產(chǎn)系統(tǒng)的“最優(yōu)解”。
此外,據(jù)公開信息統(tǒng)計(jì),目前昇騰正在助力20+省、25城市公共算力服務(wù)平臺(tái)啟動(dòng)部署DeepSeek系列模型,全國超70%區(qū)域可獲取本地支持。
如果說ChatGPT是大模型從技術(shù)研發(fā)到產(chǎn)業(yè)應(yīng)用的一個(gè)拐點(diǎn),那么,DeepSeek可以被視為第二個(gè)拐點(diǎn)。
接下來,我們將會(huì)在2025年看到大模型技術(shù)競爭更加激烈,也將會(huì)看到更多大模型應(yīng)用在產(chǎn)業(yè),乃至消費(fèi)市場中陸續(xù)落地。
好文章,需要你的鼓勵(lì)
浙江大學(xué)團(tuán)隊(duì)提出動(dòng)態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準(zhǔn)確率,且不增加計(jì)算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團(tuán)隊(duì)提出SIRI方法,通過"壓縮-擴(kuò)張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準(zhǔn)確率低"的問題。實(shí)驗(yàn)顯示,該方法在數(shù)學(xué)競賽題上將模型準(zhǔn)確率提升43.2%的同時(shí),輸出長度減少46.9%,真正實(shí)現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團(tuán)隊(duì)開發(fā)出Rolling Forcing技術(shù),實(shí)現(xiàn)AI視頻實(shí)時(shí)流式生成的重大突破。該技術(shù)通過滾動(dòng)窗口聯(lián)合去噪、注意力錨點(diǎn)機(jī)制和高效訓(xùn)練算法三項(xiàng)創(chuàng)新,解決了長視頻生成中的錯(cuò)誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標(biāo)從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團(tuán)隊(duì)發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個(gè)幾何題目的Euclid30K數(shù)據(jù)集,使用強(qiáng)化學(xué)習(xí)方法訓(xùn)練多個(gè)AI模型。實(shí)驗(yàn)結(jié)果顯示,幾何訓(xùn)練在四個(gè)空間智能測試基準(zhǔn)上都帶來顯著提升,其中最佳模型達(dá)到49.6%準(zhǔn)確率,超越此前最好成績。這項(xiàng)研究揭示了基礎(chǔ)幾何知識(shí)對(duì)培養(yǎng)AI空間智能的重要價(jià)值。
關(guān)注智造、硬件、機(jī)器人。