1月17日,國家新聞出版署公布了新一批國產(chǎn)網(wǎng)絡(luò)游戲版審批結(jié)果,網(wǎng)易增報的《逆水寒》移動端版本(即《逆水寒》手游)順利過審獲得版號。
圖1:逆水寒手游官方微博截圖
據(jù)官方介紹,《逆水寒》手游雖然基于被譽為“會呼吸的江湖”的同名端游,但手游卻又因為擁有自由度更高、想象力更飄逸、江湖感更濃郁、武功戰(zhàn)斗更熱血、社交聯(lián)系更緊密的獨特游戲樂趣及體驗而與PC版的端游截然不同。
《逆水寒》手游由網(wǎng)易最大單品研發(fā)團隊開發(fā),團隊有超過400人,目前未正式上線就已消耗超過7億預(yù)算,或?qū)⒋蚱茋a(chǎn)游戲上線前研發(fā)費用的記錄,可謂網(wǎng)易2023年絕對的“超級項目”。
圖2:去年高通驍龍發(fā)布會逆水寒手游技術(shù)人員上臺演講
網(wǎng)易如此孤注一擲并不難理解——只為當(dāng)下火熱的開放世界品類中殺下自己的市場份額。隨著近年來開放世界爆款的出現(xiàn),這一品類已經(jīng)逐漸成長為國內(nèi)年收入規(guī)模數(shù)百億元、全球千億級別的超級品類。
《逆水寒》手游無疑有望在未來分到其中很大一塊蛋糕:游戲已經(jīng)于去年國慶期間完成首次小規(guī)模線上技術(shù)測試,玩家口碑反響異常熱烈,測試成績異常優(yōu)異,打破網(wǎng)易游戲內(nèi)測的多項紀(jì)錄。首測測試服TapTap評分高達9.1分,TapTap總評分達到8.4分,預(yù)約超過100萬。
圖3:逆水寒手游TAPTAP介紹頁截圖
據(jù)逆水寒手游官方公告顯示,首測結(jié)束時逆水寒手游全平臺預(yù)約數(shù)(包括官網(wǎng)、TapTap、渠道等)就已突破1000萬。
圖4:官方賀圖,取自逆水寒手游官網(wǎng)
這樣的成績,可謂“后MMO時代”的一枝獨秀。據(jù)首測玩家反饋,《逆水寒》手游中8大區(qū)域有超過1600個謎題,塑造了一個極其宏大的開放世界。雖然開放世界這一概念并不新奇,但目前看來《逆水寒》手游無疑是將傳統(tǒng)武俠、MMO、開放世界三者結(jié)合得最好的游戲之一。官方的愿景也是用開放世界讓MMO再放光彩。
除了開放世界特色外,《逆水寒》手游團隊的技術(shù)實力也十分雄厚。
依托網(wǎng)易的伏羲人工智能團隊,逆水寒手游中搭載了超過400名超級人工智能NPC,基于NLP自然語言處理技術(shù),這些NPC能看懂玩家隨機打的字、說的話、做的行為,并做出合理反饋,與玩家演繹出一段隨機但有意義的劇情。
在MMO常見的捏臉方面,《逆水寒》手游更是創(chuàng)新加入了“上傳照片捏臉”和“打字捏臉”這兩項AI自動捏臉選項,率先將AIGC深度運用到大型手機游戲中。
圖5:實機演示動圖,取自官網(wǎng)
22年11月,逆水寒手游還登上高通驍龍8gen2的夏威夷新品發(fā)布會,成為全球首款支持光線追蹤的大型角色扮演游戲。
圖6:夏威夷發(fā)布會公布逆水寒手游光追
游戲采用國際領(lǐng)先的自主知識產(chǎn)權(quán)圖形引擎技術(shù),已擁有“光線追蹤”、“圖像處理”等方面的50余件發(fā)明專利,并開行業(yè)之先河,首次在移動端游戲中實現(xiàn)24小時動態(tài)光照效果。結(jié)合自成一派的東方古典美術(shù)風(fēng)格,輔以豐富的游戲玩法、劇情分支、人工智能技術(shù)的創(chuàng)意使用,打造出了栩栩如生的會呼吸的江湖。
游戲預(yù)計23年年內(nèi)正式上線,這款今年率先拿到版號的網(wǎng)易“超級項目”究竟能在開放世界市場中攪起什么樣的風(fēng)云?讓我們拭目以待。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟大學(xué)團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。