5月18日消息,據(jù)國(guó)外媒體報(bào)道,百度今日宣布,公司與內(nèi)容推薦平臺(tái)Taboola合作,將其推廣至中國(guó)市場(chǎng)。兩家公司還表示,百度對(duì)Taboola進(jìn)行了戰(zhàn)略投資。
Taboola今年2月曾宣布,公司獲得了由富達(dá)投資(Fidelity Investments)領(lǐng)投的總計(jì)1.17億美元的E輪投資,公司的融資總額也由此升至1.57億美元。
消息人士稱,百度對(duì)Taboola的投資金額在2000萬美元到3000萬美元之間。
Taboola的小程序可以在網(wǎng)站上放相關(guān)鏈接,點(diǎn)擊可前往贊助內(nèi)容或非贊助內(nèi)容。這些鏈接通常顯示在網(wǎng)站文章頁(yè)面底部?!督袢彰绹?guó)》、《NBC新聞》、《芝加哥論壇報(bào)》、《??怂贵w育頻道》等網(wǎng)站均使用Taboola的小程序。
Taboola的年?duì)I收超過2億美元。在內(nèi)容推薦網(wǎng)絡(luò)廣告業(yè)務(wù)領(lǐng)域,有兩家公司處于行業(yè)主導(dǎo)地位,一家是Outbrain,另一家則是Taboola。兩家公司總部均位于美國(guó)紐約。
這兩家公司之間的競(jìng)爭(zhēng)非常激烈,而雅虎、AOL以及WPP集團(tuán)也都剛剛進(jìn)入這一市場(chǎng)。
谷歌公司在上月推出了名為“匹配內(nèi)容”的內(nèi)容推薦程序。谷歌將這款小程序提供給使用其AdSense廣告的出版商,但只用于推廣非贊助內(nèi)容。
Taboola去年在美國(guó)的表現(xiàn)非常強(qiáng)勢(shì)。公司與雅虎日本合作拓展日本市場(chǎng),后來又積極推進(jìn)以色列市場(chǎng),有時(shí)甚至?xí)〈鶲utbrain。
百度是中國(guó)最大的搜索服務(wù)提供商,也是全球最大的5家搜索提供商之一。該公司表示,它將與Taboola合作,推廣后者的產(chǎn)品。
Taboola的首席執(zhí)行官亞當(dāng)·辛哥(Adam Singolda)表示,“我們會(huì)與百度充分合作,找到進(jìn)入中國(guó)市場(chǎng)的最佳方法,發(fā)現(xiàn)這個(gè)市場(chǎng)出版商的需求。”
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。