av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關(guān)注公眾號(hào)

  • 科技行者

  • 算力行者

見(jiàn)證連接與計(jì)算的「力量」

首頁(yè) 大語(yǔ)言模型與知識(shí)圖譜強(qiáng)強(qiáng)聯(lián)手:?jiǎn)柎鹣到y(tǒng)的完美協(xié)作與未來(lái)機(jī)遇

大語(yǔ)言模型與知識(shí)圖譜強(qiáng)強(qiáng)聯(lián)手:?jiǎn)柎鹣到y(tǒng)的完美協(xié)作與未來(lái)機(jī)遇

2025-06-04 09:15
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-06-04 09:15 ? 科技行者

在2025年5月26日,一個(gè)由丹麥奧爾堡大學(xué)的馬傳濤和阿里吉特·汗,中國(guó)東南大學(xué)的陳永瑞和吳天星,以及中國(guó)同濟(jì)大學(xué)的王浩芬組成的國(guó)際研究團(tuán)隊(duì),在arXiv預(yù)印本平臺(tái)發(fā)表了一篇題為《大語(yǔ)言模型遇上知識(shí)圖譜的問(wèn)答系統(tǒng):綜合與機(jī)遇》(Large Language Models Meet Knowledge Graphs for Question Answering: Synthesis and Opportunities)的研究論文。這篇論文全面梳理了大語(yǔ)言模型(LLMs)與知識(shí)圖譜(KGs)在問(wèn)答系統(tǒng)中的結(jié)合方式,為這一快速發(fā)展的領(lǐng)域提供了系統(tǒng)性的指導(dǎo)。有興趣深入了解的讀者可通過(guò)arXiv:2505.20099v1 [cs.CL]訪問(wèn)完整論文。

想象一下,你向谷歌助手或Siri提問(wèn):"誰(shuí)是世界上最富有的人?他是如何積累財(cái)富的?"這看似簡(jiǎn)單的問(wèn)題背后,隱藏著人工智能必須克服的巨大挑戰(zhàn)。大語(yǔ)言模型(LLMs)憑借其強(qiáng)大的自然語(yǔ)言理解和生成能力,在問(wèn)答任務(wù)上表現(xiàn)出色。然而,就像一個(gè)博覽群書(shū)但記憶有時(shí)會(huì)出錯(cuò)的朋友,LLM在面對(duì)復(fù)雜問(wèn)題時(shí),常常會(huì)"編造"答案、使用過(guò)時(shí)知識(shí),或者在推理過(guò)程中迷失方向。

知識(shí)圖譜就像是一本精確的百科全書(shū),里面記錄著各種實(shí)體(如人物、地點(diǎn)、組織)之間的關(guān)系,形成一張巨大的關(guān)系網(wǎng)絡(luò)。如果我們能讓LLM在回答問(wèn)題時(shí)參考這本"百科全書(shū)",是不是就能避免它"編故事"的問(wèn)題呢?

這正是研究團(tuán)隊(duì)探討的核心問(wèn)題。他們發(fā)現(xiàn),雖然檢索增強(qiáng)生成(RAG)技術(shù)已經(jīng)能夠讓LLM參考外部文檔來(lái)回答問(wèn)題,但在處理復(fù)雜問(wèn)題時(shí),RAG方法仍存在知識(shí)沖突、檢索內(nèi)容質(zhì)量不佳、缺乏迭代推理能力等限制。而將LLM與知識(shí)圖譜結(jié)合,形成一種"圖檢索增強(qiáng)生成"(GraphRAG)或"知識(shí)圖譜檢索增強(qiáng)生成"(KG-RAG)的方法,能夠更好地解決這些挑戰(zhàn)。

論文作者創(chuàng)新性地提出了一個(gè)結(jié)構(gòu)化分類(lèi)法,基于問(wèn)答類(lèi)型和知識(shí)圖譜在與LLM結(jié)合時(shí)所扮演的角色進(jìn)行分類(lèi)。他們系統(tǒng)性地綜述了當(dāng)前最先進(jìn)的LLM+KG問(wèn)答方法,比較分析了這些方法的優(yōu)勢(shì)、局限性及知識(shí)圖譜要求,并討論了這些方法如何應(yīng)對(duì)不同類(lèi)型復(fù)雜問(wèn)答任務(wù)的主要挑戰(zhàn)。

讓我們一起深入了解這個(gè)令人興奮的交叉領(lǐng)域,看看當(dāng)語(yǔ)言的藝術(shù)家(LLM)遇上知識(shí)的守護(hù)者(KG)時(shí),會(huì)碰撞出怎樣的智慧火花。

一、復(fù)雜問(wèn)答系統(tǒng)的挑戰(zhàn)與分類(lèi)

想象你是一個(gè)歷史愛(ài)好者,向AI助手提問(wèn):"誰(shuí)是二戰(zhàn)期間法國(guó)的領(lǐng)導(dǎo)人,他們與英國(guó)首相丘吉爾的關(guān)系如何?"這個(gè)問(wèn)題涉及多個(gè)人物、時(shí)間段和復(fù)雜關(guān)系,如果AI僅靠自己"記憶"中的知識(shí)回答,很可能會(huì)出現(xiàn)錯(cuò)誤。研究團(tuán)隊(duì)將這類(lèi)需要多步驟、多來(lái)源信息處理的問(wèn)題稱(chēng)為"復(fù)雜問(wèn)答"。

根據(jù)處理挑戰(zhàn)的不同,研究者將復(fù)雜問(wèn)答系統(tǒng)分為六大類(lèi):

首先是多文檔問(wèn)答系統(tǒng)。這類(lèi)系統(tǒng)就像一位圖書(shū)館管理員,能夠從多本書(shū)中找出相關(guān)信息并綜合回答。例如,KGP系統(tǒng)(由Wang等人在2024年開(kāi)發(fā))通過(guò)LLM驅(qū)動(dòng)的圖遍歷代理來(lái)檢索知識(shí)圖譜中的相關(guān)知識(shí),減少了檢索延遲并提高了檢索內(nèi)容質(zhì)量。CuriousLLM(Yang和Zhu在2025年提出)則整合了知識(shí)圖譜提示、推理增強(qiáng)的LLM代理和圖遍歷代理,增強(qiáng)LLM處理多文檔問(wèn)題的能力。

第二類(lèi)是多模態(tài)問(wèn)答系統(tǒng)。它們就像能同時(shí)理解文字、圖像甚至聲音的全能翻譯官。視覺(jué)問(wèn)答(VQA)是這類(lèi)系統(tǒng)的典型代表。例如,MMJG(Wang等人在2022年提出)引入了自適應(yīng)知識(shí)選擇機(jī)制,從視覺(jué)和文本知識(shí)中聯(lián)合選擇信息。RAMQA(Bai等人在2025年開(kāi)發(fā))通過(guò)多任務(wù)學(xué)習(xí)方式增強(qiáng)了多模態(tài)檢索增強(qiáng)問(wèn)答系統(tǒng)。KVQA(Dong等人在2024年提出)則通過(guò)兩階段提示和偽孿生圖譜媒介融合來(lái)平衡模態(tài)內(nèi)和模態(tài)間推理。

第三類(lèi)是多跳問(wèn)答系統(tǒng)。這類(lèi)系統(tǒng)就像解決一個(gè)需要多步驟的數(shù)學(xué)題,將復(fù)雜問(wèn)題分解為多個(gè)簡(jiǎn)單問(wèn)題,逐步求解后再整合答案。GraphLLM(Qiao等人在2024年提出)利用LLM將多跳問(wèn)題分解為多個(gè)子問(wèn)題,并通過(guò)圖神經(jīng)網(wǎng)絡(luò)和LLM檢索子圖,基于圖推理生成子問(wèn)題的答案。HOLMES(Panda等人在2024年提出)利用基于實(shí)體-文檔圖構(gòu)建的上下文感知超關(guān)系知識(shí)圖譜增強(qiáng)LLM的多跳問(wèn)答能力。GMeLLo(Chen等人在2024年提出)通過(guò)事實(shí)三元組提取、關(guān)系鏈提取和查詢(xún)答案生成,有效整合KG的顯式知識(shí)與LLM的語(yǔ)言知識(shí)。

第四類(lèi)是多輪對(duì)話和會(huì)話式問(wèn)答系統(tǒng)。這類(lèi)系統(tǒng)就像一個(gè)擅長(zhǎng)"聽(tīng)懂言外之意"的交談伙伴,能夠理解問(wèn)題和中間交互。CoRnNetA(Liu等人在2024年提出)引入了基于LLM的問(wèn)題重構(gòu)、強(qiáng)化學(xué)習(xí)代理和軟獎(jiǎng)勵(lì)機(jī)制,以改善多輪交互的解釋。會(huì)話式問(wèn)答涉及多輪交互,通過(guò)多次對(duì)話來(lái)精煉并獲得準(zhǔn)確答案。LLMs-Graph-Reasoning(Chen等人在2024年提出)引入知識(shí)聚合模塊和圖推理,實(shí)現(xiàn)圖與LLM之間的聯(lián)合推理,解決理解問(wèn)題和上下文的挑戰(zhàn)。SELF-multiRAG(Roy等人在2024年提出)利用LLM從會(huì)話歷史摘要中檢索并重用檢索到的知識(shí)進(jìn)行增強(qiáng)。

第五類(lèi)是可解釋問(wèn)答系統(tǒng)。這類(lèi)系統(tǒng)不僅能給出答案,還能像一位耐心的老師解釋推理過(guò)程。RoHT(Zhang等人在2023年提出)基于構(gòu)建的分層問(wèn)題分解樹(shù)實(shí)現(xiàn)概率推理,從而實(shí)現(xiàn)多源知識(shí)的有效整合。EXPLAIGNN(Christmann等人在2023年提出)從檢索的KB知識(shí)和用戶(hù)解釋構(gòu)建異構(gòu)圖,并基于帶有問(wèn)題級(jí)注意力的GNN生成解釋性證據(jù)。RID(Feng等人在2025年提出)直接基于強(qiáng)化學(xué)習(xí)驅(qū)動(dòng)的知識(shí)蒸餾將無(wú)監(jiān)督檢索與LLM整合。

最后一類(lèi)是時(shí)間問(wèn)答系統(tǒng)。這類(lèi)系統(tǒng)能理解問(wèn)題中隱含的時(shí)間約束,并有效地將其與時(shí)間知識(shí)結(jié)合進(jìn)行推理。TimeR4(Qian等人在2024年提出)通過(guò)檢索-檢索-重排管道,通過(guò)基于時(shí)間知識(shí)的微調(diào)來(lái)增強(qiáng)LLM的時(shí)間推理能力。GenTKGQA(Gao等人在2024年提出)引入時(shí)間GNN和虛擬知識(shí)指示器捕獲時(shí)間知識(shí)嵌入,并將檢索到的子圖動(dòng)態(tài)集成到LLM中進(jìn)行時(shí)間推理。KG-IRAG(Yang等人在2025年提出)使LLM能夠增量檢索知識(shí)并評(píng)估其充分性,以增強(qiáng)LLM回答涉及時(shí)間依賴(lài)的時(shí)間敏感和事件驅(qū)動(dòng)查詢(xún)的能力。

二、LLM與知識(shí)圖譜結(jié)合的方法論

如果將LLM比作一位博學(xué)多才但偶爾會(huì)記錯(cuò)事的演講者,知識(shí)圖譜則像一本事實(shí)詳盡的參考書(shū)。研究者們發(fā)現(xiàn),根據(jù)知識(shí)圖譜在與LLM結(jié)合時(shí)扮演的角色不同,可以將LLM+KG的方法分為三大類(lèi):背景知識(shí)、推理指南以及驗(yàn)證者和優(yōu)化器。

### 知識(shí)圖譜作為背景知識(shí)

當(dāng)知識(shí)圖譜作為背景知識(shí)時(shí),它就像是LLM的"外部記憶庫(kù)",提供準(zhǔn)確的事實(shí)信息供LLM參考。這類(lèi)方法主要有兩種技術(shù)范式:知識(shí)整合與融合,以及檢索增強(qiáng)生成。

知識(shí)整合與融合就像是將參考書(shū)的內(nèi)容直接"植入"到演講者的大腦中。研究者們通過(guò)局部子圖提取和實(shí)體鏈接對(duì)知識(shí)圖譜和文本進(jìn)行對(duì)齊,然后輸入到跨模態(tài)編碼器中,雙向融合文本和知識(shí)圖譜以聯(lián)合訓(xùn)練語(yǔ)言模型。為了解決知識(shí)遺忘和噪聲知識(shí)問(wèn)題,InfuserKI(Wang等人在2024年提出)和KEFF(Zhao等人在2025年提出)分別引入了自適應(yīng)選擇和知識(shí)增強(qiáng)過(guò)濾器,選擇新知識(shí)并將其與LLM整合。用文本和知識(shí)圖譜微調(diào)LLM可以提高其在特定任務(wù)上的表現(xiàn)。例如,KG-Adapter(Tian等人在2024年提出)通過(guò)向LLM引入知識(shí)適應(yīng)層改進(jìn)了參數(shù)高效微調(diào)。GAIL(Zhang等人在2024年提出)基于從知識(shí)圖譜檢索的SPARQL-問(wèn)題對(duì)微調(diào)LLM,用于輕量級(jí)KGQA模型。

檢索增強(qiáng)生成(RAG)則像是演講者在演講過(guò)程中不斷查閱參考書(shū)。它首先基于向量相似度檢索從文本塊中檢索相關(guān)知識(shí),然后通過(guò)將檢索到的上下文與LLM整合來(lái)增強(qiáng)LLM。然而,主流RAG方法從文本塊中檢索相關(guān)知識(shí),忽略了這些文本塊的結(jié)構(gòu)化信息和相互關(guān)系。為了緩解這一限制,研究者提出了Graph RAG和KG-RAG。Graph RAG直接從圖數(shù)據(jù)中檢索相關(guān)知識(shí)。GRAG(Hu等人在2024年提出)從文本圖中檢索top-k相關(guān)子圖,然后通過(guò)基于GNN聚合和對(duì)齊圖嵌入與文本向量將檢索到的子圖與查詢(xún)集成。LEGO-GraphRAG(Cao等人在2024年提出)將檢索過(guò)程分解為子圖提取、路徑過(guò)濾和路徑細(xì)化模塊,從而提高LLM利用檢索知識(shí)的推理能力。KG2RAG(Zhu等人在2025年提出)從知識(shí)圖譜中檢索相關(guān)子圖,并用檢索到的知識(shí)圖譜擴(kuò)展文本塊以增強(qiáng)生成。

### 知識(shí)圖譜作為推理指南

知識(shí)圖譜不僅可以提供事實(shí)信息,還可以指導(dǎo)LLM的推理過(guò)程。就像是一位導(dǎo)游不僅告訴你景點(diǎn)的信息,還會(huì)指導(dǎo)你如何規(guī)劃最佳游覽路線。根據(jù)知識(shí)圖譜參與LLM推理過(guò)程的方式,這類(lèi)方法可分為離線知識(shí)圖譜指南、在線知識(shí)圖譜指南和基于代理的知識(shí)圖譜指南。

離線知識(shí)圖譜指南在LLM推理過(guò)程前提供潛在路徑或子圖,LLM從中選擇最相關(guān)的路徑進(jìn)行推理。例如,SR(Zhang等人在2022年提出)訓(xùn)練了獨(dú)立于下游推理過(guò)程的子圖檢索器,而Keqing(Wang等人在2023年提出)使用預(yù)定義模板分解復(fù)雜問(wèn)題,從知識(shí)圖譜中檢索候選實(shí)體和三元組。EtD(Liu等人在2024年提出)首先使用GNN識(shí)別有前途的候選項(xiàng)并提取與問(wèn)題相關(guān)的細(xì)粒度知識(shí),然后創(chuàng)建知識(shí)增強(qiáng)的多項(xiàng)選擇提示引導(dǎo)LLM生成最終答案。最近的研究開(kāi)始探索新型指南格式的應(yīng)用。GCR(Luo等人在2024年提出)首先將知識(shí)圖譜轉(zhuǎn)換為KG-Trie,然后開(kāi)發(fā)圖約束解碼和輕量級(jí)LLM來(lái)生成多個(gè)推理路徑和候選答案。KELDaR(Li等人在2024年提出)引入問(wèn)題分解和原子檢索模塊提取隱式信息,并從知識(shí)圖譜中檢索相關(guān)子圖以增強(qiáng)LLM進(jìn)行問(wèn)答。

在線知識(shí)圖譜指南強(qiáng)調(diào)知識(shí)圖譜直接參與LLM的推理過(guò)程,而不僅僅依賴(lài)現(xiàn)有靜態(tài)知識(shí)。例如,Oreo(Hu等人在2022年提出)使用知識(shí)圖譜上的上下文化隨機(jī)游走,并通過(guò)特定層進(jìn)行單步推理。KBIGER(Du等人在2022年提出)考慮第(k-1)步推理圖構(gòu)建第k步推理指令,并糾正中間實(shí)體的錯(cuò)誤預(yù)測(cè)。LLM-ARK(Huang在2023年提出)將推理任務(wù)視為順序決策過(guò)程,并采用近端策略?xún)?yōu)化進(jìn)行優(yōu)化。ToG(Sun等人在2024年提出)允許LLM在知識(shí)圖譜上迭代執(zhí)行波束搜索,生成最有希望的推理路徑和最可能的推理結(jié)果。相比之下,ToG-2(Ma等人在2025年提出)利用實(shí)體作為中介,基于文檔與知識(shí)圖譜之間的迭代檢索引導(dǎo)LLM生成精確答案。KG-CoT(Zhao等人在2024年提出)利用外部知識(shí)圖譜生成推理路徑,實(shí)現(xiàn)LLM和知識(shí)圖譜的聯(lián)合推理,增強(qiáng)LLM的問(wèn)答推理能力。

基于代理的知識(shí)圖譜指南將知識(shí)圖譜集成到LLM的推理過(guò)程中,作為代理系統(tǒng)的組件。這種集成允許代理利用結(jié)構(gòu)化知識(shí)增強(qiáng)LLM的決策和問(wèn)題解決能力。KG-Agent(Jiang等人在2024年提出)是一個(gè)多功能工具箱,集成LLM與基于知識(shí)圖譜的執(zhí)行器和知識(shí)記憶系統(tǒng),自主選擇工具并更新記憶以增強(qiáng)LLM在知識(shí)圖譜上的推理。ODA(Sun等人在2024年提出)通過(guò)全局觀察方法融合知識(shí)圖譜推理能力,采用觀察、行動(dòng)和反思的循環(huán)范式改進(jìn)推理能力。GREASELM(Zhang等人在2021年提出)通過(guò)引入多種模態(tài)交互層,有效整合來(lái)自語(yǔ)言模型和圖神經(jīng)網(wǎng)絡(luò)的編碼表示,無(wú)縫融合結(jié)構(gòu)化知識(shí)與語(yǔ)言上下文。

### 知識(shí)圖譜作為驗(yàn)證者和優(yōu)化器

知識(shí)圖譜還可以扮演"事實(shí)核查員"的角色,幫助LLM驗(yàn)證和細(xì)化中間答案。這類(lèi)方法分為知識(shí)圖譜驅(qū)動(dòng)的過(guò)濾和驗(yàn)證,以及知識(shí)圖譜增強(qiáng)的輸出細(xì)化。

知識(shí)圖譜驅(qū)動(dòng)的過(guò)濾和驗(yàn)證通過(guò)結(jié)構(gòu)化和已驗(yàn)證的信息過(guò)濾和驗(yàn)證LLM的候選答案,提高輸出的準(zhǔn)確性和可靠性。例如,ACT-Selection(Salnikov等人在2023年提出)基于從Wikidata提取的類(lèi)型過(guò)濾和重新排序答案候選。Q-KGR(Zhang等人在2024年提出)通過(guò)基于問(wèn)題和知識(shí)之間相關(guān)性得分排名過(guò)濾掉不相關(guān)知識(shí),提高LLM的推理能力。知識(shí)圖譜可以提高生成答案的事實(shí)準(zhǔn)確性,如KG-Rank(Yang等人在2024年提出)集成醫(yī)療知識(shí)圖譜與重排技術(shù),增強(qiáng)生成響應(yīng)的可信度。此外,KGR(Guan等人在2024年提出)自主提取和驗(yàn)證事實(shí)陳述,顯著提升事實(shí)問(wèn)答性能。

知識(shí)圖譜增強(qiáng)的輸出細(xì)化則是將知識(shí)圖譜與LLM集成,以提高LLM輸出的清晰度和準(zhǔn)確性。EFSUM(Ko等人在2024年提出)將LLM作為事實(shí)摘要器,從知識(shí)圖譜生成相關(guān)摘要,從而提高零樣本問(wèn)答性能。InteractiveKBQA(Xiong等人在2024年提出)實(shí)現(xiàn)迭代知識(shí)交互,使LLM能夠生成邏輯形式并基于用戶(hù)反饋細(xì)化輸出。LPKG(Wang等人在2024年提出)用知識(shí)圖譜派生的規(guī)劃數(shù)據(jù)微調(diào)LLM,增強(qiáng)LLM在復(fù)雜問(wèn)答中的復(fù)雜推理規(guī)劃能力。

### 混合方法與優(yōu)化技術(shù)

除了單一角色外,研究者們還探索了知識(shí)圖譜在與LLM結(jié)合時(shí)扮演多重角色的混合方法。例如,KG-RAG(Sanmartin在2024年提出)引入了探索鏈(Chain-of-Explorations,CoE)基于向量相似度對(duì)節(jié)點(diǎn)或關(guān)系進(jìn)行排名并獲取top-k項(xiàng),從而選擇最相關(guān)知識(shí)并輸入LLM生成最終答案。LongRAG(Zhao等人在2024年提出)基于混合檢索器檢索top-k最相關(guān)塊,并通過(guò)引入CoT引導(dǎo)過(guò)濾器分析它們與查詢(xún)的相關(guān)性。此外,知識(shí)圖譜增強(qiáng)提示被引入LLM以增強(qiáng)最終答案的生成。在KG-Rank(Yang等人在2024年提出)中,引入多種排序方法來(lái)細(xì)化檢索到的三元組,以最相關(guān)知識(shí)增強(qiáng)推理。FRAG(Zhao在2024年提出)引入推理感知和靈活檢索模塊從知識(shí)圖譜中檢索推理路徑,從而引導(dǎo)和增強(qiáng)LLM的高效推理和答案生成。KGQA(Ji等人在2024年提出)結(jié)合CoT提示與圖檢索,提高檢索質(zhì)量和LLM的多跳推理能力。

為了緩解現(xiàn)有方法在統(tǒng)一LLM和知識(shí)圖譜進(jìn)行復(fù)雜問(wèn)答時(shí)的低效率和高計(jì)算成本問(wèn)題,研究者們提出了幾種優(yōu)化技術(shù):

基于索引的優(yōu)化旨在加速學(xué)習(xí)嵌入和向量存儲(chǔ)過(guò)程。例如,PG-RAG(Liang等人在2024年提出)提出基于LLM的動(dòng)態(tài)自適應(yīng)知識(shí)檢索索引,能有效處理復(fù)雜查詢(xún)并改善RAG系統(tǒng)在問(wèn)答任務(wù)中的整體性能。

基于提示的優(yōu)化主要通過(guò)提示工程增強(qiáng)提示質(zhì)量。例如,KGP(Wang等人在2024年提出)提出知識(shí)圖譜提示方法增強(qiáng)LLM提示并優(yōu)化知識(shí)檢索,引入知識(shí)圖譜構(gòu)建模塊和基于LLM的圖遍歷代理。

基于成本的優(yōu)化旨在通過(guò)減少對(duì)LLM的調(diào)用次數(shù)和加速知識(shí)檢索來(lái)最小化計(jì)算成本。特別是,SPOKE KG-RAG(Soman等人在2024年提出)提出基于令牌的優(yōu)化KG-RAG框架,將知識(shí)圖譜的顯式和隱式知識(shí)與LLM集成,增強(qiáng)LLM的成本效益問(wèn)答能力。

三、評(píng)估指標(biāo)與基準(zhǔn)數(shù)據(jù)集

為了全面評(píng)估LLM+KG問(wèn)答系統(tǒng)的性能,研究者們開(kāi)發(fā)了一系列評(píng)估指標(biāo)和基準(zhǔn)數(shù)據(jù)集。

評(píng)估指標(biāo)主要分為三類(lèi):答案質(zhì)量指標(biāo)、檢索質(zhì)量指標(biāo)和推理質(zhì)量指標(biāo)。答案質(zhì)量指標(biāo)包括BERTScore、答案相關(guān)性、幻覺(jué)度、準(zhǔn)確性匹配和人工驗(yàn)證完整性等。檢索質(zhì)量指標(biāo)包括上下文相關(guān)性、忠實(shí)度得分、精確度、上下文召回率、平均倒數(shù)排名和標(biāo)準(zhǔn)化折扣累積增益等。推理質(zhì)量指標(biāo)則包括跳躍準(zhǔn)確率和推理準(zhǔn)確率等。

基準(zhǔn)數(shù)據(jù)集方面,研究者們總結(jié)了許多專(zhuān)為評(píng)估LLM+KG問(wèn)答系統(tǒng)設(shè)計(jì)的數(shù)據(jù)集,如WebQSP、BioASQ-QA、CAQA、CR-LT KGQA、EXAQT等。這些數(shù)據(jù)集覆蓋了不同類(lèi)型的問(wèn)答任務(wù),包括基于知識(shí)庫(kù)的問(wèn)答、多選題問(wèn)答、多跳問(wèn)答、多模態(tài)問(wèn)答、時(shí)間問(wèn)答等,為研究者提供了全面的評(píng)估環(huán)境。

此外,研究團(tuán)隊(duì)還展示了LLM+KG問(wèn)答系統(tǒng)在工業(yè)和科學(xué)應(yīng)用中的實(shí)際案例。例如,螞蟻集團(tuán)的KAG是一個(gè)領(lǐng)域知識(shí)增強(qiáng)生成框架,利用知識(shí)圖譜和向量檢索雙向增強(qiáng)LLM用于知識(shí)密集型任務(wù)。微軟的PIKE-RAG則是一個(gè)專(zhuān)門(mén)知識(shí)和基本原理增強(qiáng)生成系統(tǒng),專(zhuān)注于提取、理解和應(yīng)用領(lǐng)域特定知識(shí)引導(dǎo)LLM生成準(zhǔn)確響應(yīng)。NebulaGraph的GraphRAG-QA整合了多種查詢(xún)引擎,增強(qiáng)問(wèn)答能力。此外還有南洋理工大學(xué)等機(jī)構(gòu)開(kāi)發(fā)的MedRAG,弗勞恩霍夫IAIS和拜耳共同開(kāi)發(fā)的Fact Finder,以及滑鐵盧大學(xué)的AprèsCoT等應(yīng)用案例。

四、未來(lái)挑戰(zhàn)與機(jī)遇

盡管LLM+KG問(wèn)答系統(tǒng)取得了顯著進(jìn)展,但研究者們指出,這一領(lǐng)域仍面臨幾個(gè)關(guān)鍵挑戰(zhàn):

首先是有效性和效率的平衡問(wèn)題。LLM+KG系統(tǒng)在檢索事實(shí)和執(zhí)行多跳推理時(shí)面臨嚴(yán)格的延遲和內(nèi)存預(yù)算限制。三個(gè)瓶頸正在浮現(xiàn):結(jié)構(gòu)感知檢索、分?jǐn)偼评砗洼p量級(jí)答案驗(yàn)證。研究者們建議通過(guò)層次圖分區(qū)、動(dòng)態(tài)鄰域擴(kuò)展和學(xué)習(xí)路徑先驗(yàn)提案網(wǎng)絡(luò)等方式暴露結(jié)構(gòu)給檢索器,同時(shí)保持索引的次線性特性。此外,通過(guò)緩存子圖、重用中間嵌入和利用增量計(jì)算友好的硬件可以緩解迭代推理的二次級(jí)爆炸。輕量級(jí)答案驗(yàn)證方面,概率邏輯程序或布隆過(guò)濾器草圖可以提供具有O(1)附加參數(shù)的設(shè)備內(nèi)驗(yàn)證。一個(gè)機(jī)會(huì)是設(shè)計(jì)檢索器和驗(yàn)證器,使前者的不確定性估計(jì)指導(dǎo)后者的選擇性執(zhí)行。

其次是知識(shí)對(duì)齊和動(dòng)態(tài)集成的挑戰(zhàn)。一旦知識(shí)圖譜快照被注入LLM,它就開(kāi)始過(guò)時(shí),而現(xiàn)實(shí)世界的知識(shí)圖譜通常涉及添加新實(shí)體、刪除關(guān)系和解決矛盾。未來(lái)工作應(yīng)量化對(duì)齊度,不僅評(píng)分語(yǔ)義重疊,還評(píng)估LLM中的參數(shù)知識(shí)與知識(shí)圖譜中的符號(hào)知識(shí)之間的結(jié)構(gòu)兼容性。對(duì)比探測(cè)與合成反事實(shí)或拓?fù)涓兄獙?duì)齊損失可能填補(bǔ)這一空白。此外,參數(shù)高效調(diào)整(如按圖增量鍵控的LoRA模塊)和檢索時(shí)修補(bǔ)(帶有時(shí)間索引的流式知識(shí)圖譜)是朝向流時(shí)間知識(shí)對(duì)齊的早期步驟。檢測(cè)和解決沖突方面,貝葉斯信任網(wǎng)絡(luò)、源感知知識(shí)蒸餾和多代理辯論協(xié)議可以估計(jì)和協(xié)調(diào)跨模態(tài)和來(lái)源的置信度分?jǐn)?shù)。將這些納入解碼目標(biāo)是一個(gè)具有高回報(bào)的開(kāi)放挑戰(zhàn)。

最后是可解釋和公平感知的問(wèn)答系統(tǒng)。LLM的規(guī)模對(duì)問(wèn)答中的可解釋性和公平性提出了挑戰(zhàn)。雖然集成知識(shí)圖譜提供了通向可解釋推理的路徑,但它也引入了計(jì)算挑戰(zhàn)和公平性問(wèn)題。未來(lái)工作可以考慮以下方向:子圖推理、公平感知知識(shí)檢索和多輪問(wèn)答。從大規(guī)模知識(shí)圖譜檢索子圖計(jì)算昂貴,常導(dǎo)致過(guò)于復(fù)雜或難以理解的解釋。結(jié)構(gòu)感知檢索和重排方法應(yīng)用于識(shí)別與黃金路徑一致的子圖。此外,CoT提示可引導(dǎo)LLM生成基于檢索子圖的顯式推理步驟。LLM可以從訓(xùn)練數(shù)據(jù)中捕獲社會(huì)偏見(jiàn),但知識(shí)圖譜可能包含不完整或有偏的知識(shí),導(dǎo)致RAG中的公平性問(wèn)題仍然存在。將公平感知技術(shù)納入知識(shí)圖譜檢索(如基于偏見(jiàn)檢測(cè)的重排)并將其與反事實(shí)提示集成可減輕偏見(jiàn)。單輪問(wèn)答限制了多樣化視角的探索和推理過(guò)程的探索。開(kāi)發(fā)具有能動(dòng)態(tài)檢測(cè)和調(diào)整偏見(jiàn)的檢索策略的多輪問(wèn)答,可通過(guò)多輪交互進(jìn)一步提高可解釋性和公平性。

五、結(jié)論

歸根結(jié)底,這項(xiàng)研究系統(tǒng)地審視了LLM和知識(shí)圖譜在問(wèn)答系統(tǒng)中的結(jié)合,提出了一個(gè)基于問(wèn)答類(lèi)型和知識(shí)圖譜角色的新型分類(lèi)法。通過(guò)分析當(dāng)前方法的優(yōu)勢(shì)和局限性,研究者們強(qiáng)調(diào)了利用知識(shí)圖譜增強(qiáng)LLM以克服有限推理能力、過(guò)時(shí)知識(shí)和幻覺(jué)等挑戰(zhàn)的潛力。

這一交叉領(lǐng)域已取得顯著進(jìn)展,但仍面臨高效推理、知識(shí)對(duì)齊和可解釋問(wèn)答等挑戰(zhàn)。未來(lái)研究應(yīng)著眼于開(kāi)發(fā)能動(dòng)態(tài)整合最新知識(shí)的自適應(yīng)框架,以及建立高效的方法來(lái)擴(kuò)展推理、解釋和公平性。

對(duì)于我們普通用戶(hù)來(lái)說(shuō),這項(xiàng)研究意味著未來(lái)的AI助手將更加可靠、透明且公平。它們不僅能回答"誰(shuí)是世界上最富有的人"這樣的簡(jiǎn)單問(wèn)題,還能處理"比較不同時(shí)期政治制度對(duì)經(jīng)濟(jì)發(fā)展的影響"這樣的復(fù)雜多步驟問(wèn)題,同時(shí)清晰解釋其推理過(guò)程并避免社會(huì)偏見(jiàn)。

你是否想過(guò),當(dāng)AI能夠自動(dòng)更新和整合新知識(shí),同時(shí)保持推理的準(zhǔn)確性和可解釋性時(shí),它會(huì)如何改變我們獲取和處理信息的方式?這個(gè)領(lǐng)域的發(fā)展無(wú)疑將重塑我們與AI交互的未來(lái)。

分享至
0贊

好文章,需要你的鼓勵(lì)

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-