10月26日,快手正式內(nèi)測“AI小快”賬號,在短視頻評論區(qū)為用戶提供互動問答、圖片生成、攻略檢索、文案修改等多種基于短視頻應用場景的AIGC服務。“AI小快”背后是快手自研大模型的強力支持,包括快手從零到一獨立自主研發(fā)的大規(guī)模語言模型“快意”大模型和文生圖大模型“可圖”。據(jù)悉,這是今年快手在評論區(qū)場景落地的首款人格化應用,也集成了大語言模型和文生圖模型的能力,讓“AI小快”實現(xiàn)了“能說會畫”的能力。今年以來,快手加快了AIGC的技術(shù)布局。8月,快手宣布內(nèi)測自研大語言模型“快意”(KwaiYii),9月,快手推出了文生圖大模型“可圖”(Kolors),在大模型業(yè)務方面繼“文生文”之后又補上了“文生圖”這塊版圖。
短視頻評論區(qū)天然是一個用戶表達、互動、交流的公域場地,各品類內(nèi)容下均存在用戶表達和提問的訴求,而且用戶的提問類別豐富,覆蓋視頻內(nèi)容的討論交流、對專業(yè)信息的疑惑以及自我情緒的抒發(fā)等。在快手3.76億DAU的社區(qū)生態(tài)中,用戶的每一次表達,每一次提問,都是對社區(qū)的信任,背后都是對“被回應”的期待。
為了更好的滿足用戶在評論區(qū)的訴求,讓用戶表達有途徑、互動有回應、互動有驚喜,“AI小快”應運而生。據(jù)了解,用戶在快手搜索“AI小快”即可申請參與內(nèi)測,獲得資格的用戶在短視頻評論區(qū)發(fā)布艾特@AI小快 的評論,便可收到@AI小快 的回復。“AI小快”不僅可以為用戶們的提問給出有效的答案和信息參考,且能在短視頻信息延展的基礎(chǔ)上,有效提升用戶之間的互動頻次和信息交互體驗。
值得一提的是,“AI小快”也具有自己的人設(shè),即一個有態(tài)度、有能力、有感情、有梗的四有AI賬號。無論是聊刷劇細節(jié)還是數(shù)理化難題,只要是用戶在評論區(qū)的評論,“AI小快”有問必答。同時,AI小快也是一個活潑友愛的聊天搭子,既能提供有效的情緒價值,也能根據(jù)網(wǎng)絡(luò)熱梗、時事熱點等信息隨時“造梗”,力求打造評論區(qū)的顯眼包。
據(jù)了解,“AI小快”的背后是快意大模型強大的理解、生成與交互能力的支持。本次發(fā)布的“AI小快”的能力已升級到了快意大模型的 66B 版本。這也是繼8月份快手發(fā)布快意13B模型后的又一次技術(shù)升級。更大規(guī)模的模型,也帶來了更強大的能力。
今年下半年以來,快手加快AIGC的布局。8月,快手宣布內(nèi)測自研大語言模型“快意”(KwaiYii),打造“全模態(tài)大模型AIGC解決方案”。基于自研的基座大模型,為用戶提供包括文本生成、圖像生成、3D素材生成、音頻生成、視頻生成等在內(nèi)的多種技術(shù)能力。其中,KwaiYii-13B在多個 Benchmark 上都處于領(lǐng)先水平,證明了其在自然語言處理任務中的出色性能。
基于目前在大模型的技術(shù)積累,快手已經(jīng)在搜索、評論等多個場景實現(xiàn)了應用落地。7月8日,快手開啟智能問答產(chǎn)品的內(nèi)測;8月8日,啟動“AI對話”內(nèi)測,并于8月18日在快手App安卓版本開放內(nèi)測“快手AI對話”功能;9月15日,快手宣布在站內(nèi)短視頻評論開始內(nèi)測AI文生圖功能——快手AI玩評,用戶通過輸入各種創(chuàng)意文字,可一鍵生成海量風格圖片,更便捷的在評論區(qū)進行趣味互動。
隨著AIGC商業(yè)落地迎來新一輪波峰,技術(shù)與產(chǎn)業(yè)的融合度及場景應用豐富度在迅速提高。短視頻擁有龐大的用戶基礎(chǔ)和強大社交屬性,為AIGC的落地提供了更多應用場景。未來,快手將持續(xù)深耕AI技術(shù),推動產(chǎn)品形態(tài)、用戶體驗發(fā)展,探索短視頻業(yè)務的第二曲線,推動其成為短視頻+直播平臺的基礎(chǔ)設(shè)施。
好文章,需要你的鼓勵
浙江大學團隊提出動態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學、編程等任務上顯著提升推理準確率,且不增加計算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學研究團隊提出SIRI方法,通過"壓縮-擴張"交替訓練策略,成功解決了大型推理模型"話多且準確率低"的問題。實驗顯示,該方法在數(shù)學競賽題上將模型準確率提升43.2%的同時,輸出長度減少46.9%,真正實現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓練提供了新思路。
南洋理工大學與騰訊聯(lián)合研究團隊開發(fā)出Rolling Forcing技術(shù),實現(xiàn)AI視頻實時流式生成的重大突破。該技術(shù)通過滾動窗口聯(lián)合去噪、注意力錨點機制和高效訓練算法三項創(chuàng)新,解決了長視頻生成中的錯誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學研究團隊發(fā)現(xiàn),通過讓AI模型學習解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個幾何題目的Euclid30K數(shù)據(jù)集,使用強化學習方法訓練多個AI模型。實驗結(jié)果顯示,幾何訓練在四個空間智能測試基準上都帶來顯著提升,其中最佳模型達到49.6%準確率,超越此前最好成績。這項研究揭示了基礎(chǔ)幾何知識對培養(yǎng)AI空間智能的重要價值。