CNET科技資訊網(wǎng) 9月27日 北京消息:繼上海之后,滴滴租車近日在武漢、成都、青島三個(gè)城市全城上線。同時(shí),全國其他地方的滴滴用戶也可進(jìn)入滴滴APP,在四城預(yù)約用車。
滴滴租車近期還降低嘗鮮門檻,實(shí)行“任性價(jià)”。以非節(jié)假日的周一到周五為例,經(jīng)濟(jì)型轎車在上述四個(gè)城市的最低日租金僅為59元(機(jī)場(chǎng)地區(qū)最低日租金為78元),實(shí)用型轎車日租金也在110—125之間。
在定價(jià)遠(yuǎn)低于市場(chǎng)價(jià)的同時(shí),滴滴租車還推出了多項(xiàng)活動(dòng),如新用戶首次使用可領(lǐng)取300元大禮包,分別是租滿2天減120元和租金滿500元減180元。換句話說,如果用戶選擇租兩天經(jīng)濟(jì)型轎車,有很大機(jī)會(huì)免費(fèi)。同時(shí)針對(duì)國慶黃金周,滴滴也推出了租三天享9折活動(dòng),以鼓勵(lì)更多用戶自駕出行。據(jù)悉,青島、成都、武漢的車輛均為全新車。
租車是滴滴出行推出的第九項(xiàng)業(yè)務(wù),該項(xiàng)業(yè)務(wù)于9月9日在上海全城上線,近期在武漢、成都、青島三城同時(shí)全城上線。滴滴租車首創(chuàng)全程線上化服務(wù)和免費(fèi)上門送取車模式,租車的預(yù)訂、支付、訂單修改、費(fèi)用結(jié)算及評(píng)價(jià)反饋等環(huán)節(jié)均放到線上,用戶無需花費(fèi)額外費(fèi)用,只要在服務(wù)時(shí)間內(nèi)提前2小時(shí)下單即可享受免費(fèi)上門送取服務(wù)。
滴滴租車的人臉識(shí)別系統(tǒng)
除了上述四個(gè)城市之外,即日起全國所有滴滴用戶,打開滴滴出行APP,都能看到“租車”入口。用戶在經(jīng)過人臉識(shí)別等簡(jiǎn)單步驟后,系統(tǒng)會(huì)自動(dòng)判定注冊(cè)人是否具備租車資質(zhì)、是否可以下單租車。換句話說,異地用戶只要身在上海、武漢、成都或青島任一城市,也可體驗(yàn)滴滴便捷、優(yōu)惠、自由的租車服務(wù)了。
來自上海的羅先生表示,拿到駕照半年多了,一直憧憬著去周邊自駕玩。一次偶然打開滴滴APP發(fā)現(xiàn)也能租車了,送車上門,費(fèi)用也完全可以接受,于是周末和女朋友一起租車去了太湖,全程體驗(yàn)很棒,感覺用滴滴租車就像打車一樣簡(jiǎn)單。在羅先生看來,像他這種不想背負(fù)車貸的年輕人,租車自駕出游是個(gè)不錯(cuò)的選擇。
滴滴租車方面表示,該業(yè)務(wù)一直推崇以自由為導(dǎo)向的品牌價(jià)值觀,“你需要擁有的,是觸手可得的自由”這句話也打中了不少年輕用戶的痛點(diǎn)。此次的嘗鮮價(jià),也進(jìn)一步降低了用戶的租車使用門檻。觀察到目前傳統(tǒng)租車行業(yè)冗長的服務(wù)流程,以及需要在取車、還車等環(huán)節(jié)耗費(fèi)大量時(shí)間的現(xiàn)象,滴滴租車更希望不斷優(yōu)化用戶體驗(yàn)。
滴滴官方多次表示,非常重視用戶體驗(yàn),代金券作為提高用戶體驗(yàn)中關(guān)鍵的一環(huán),將會(huì)一如既往地發(fā)放。
好文章,需要你的鼓勵(lì)
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。