這項由北京大學計算機科學學院的駱俊宇、張明等研究者,聯(lián)合騰諱優(yōu)圖實驗室、南洋理工大學、芝加哥大學等多家頂尖機構(gòu)共同完成的大規(guī)模綜述研究,發(fā)表于2025年3月的預印本論文平臺arXiv。感興趣的讀者可以通過arXiv:2503.21460v1獲取完整論文。這項研究首次系統(tǒng)性地梳理了大語言模型智能體這一前沿領(lǐng)域的完整技術(shù)圖譜,為理解AI智能體的未來發(fā)展提供了重要指南。
在人工智能飛速發(fā)展的今天,我們正見證著一個前所未有的變革時期。就像科幻電影中那些能夠獨立思考、相互協(xié)作的智能機器人一樣,基于大語言模型的AI智能體正在從想象變?yōu)楝F(xiàn)實。這些智能體不再只是被動回答問題的工具,而是能夠主動感知環(huán)境、制定計劃、執(zhí)行任務,甚至與其他智能體協(xié)作完成復雜工作的數(shù)字生命體。
想象一下,如果你有一群智能助手,每個都有自己的專長和記憶,它們能夠相互討論、分工合作,甚至從經(jīng)驗中學習和進步。這不再是科幻小說的情節(jié),而是當今AI研究的前沿陣地。這些智能體已經(jīng)在幫助科學家進行實驗、協(xié)助程序員開發(fā)軟件、參與游戲競技,甚至模擬人類社會的復雜行為。
這項研究的重要性在于,它首次以系統(tǒng)性的視角審視了這個快速發(fā)展的領(lǐng)域。就像繪制一張詳細的地圖,幫助我們理解這些AI智能體是如何構(gòu)建的、它們?nèi)绾蜗嗷f(xié)作、以及它們?nèi)绾尾粩噙M化。研究團隊通過對大量相關(guān)研究的深入分析,提出了一個全新的分類框架,將復雜的技術(shù)問題分解為三個核心維度:構(gòu)建(如何創(chuàng)造智能體)、協(xié)作(如何讓它們合作)、進化(如何讓它們變得更好)。
與以往只關(guān)注單一方面或特定應用的研究不同,這項工作采用了"方法論中心"的視角,將分散的研究線索統(tǒng)一起來,揭示了智能體設計原理與其在復雜環(huán)境中表現(xiàn)之間的根本聯(lián)系。這就像是將散落的拼圖碎片組合成一幅完整的圖畫,讓研究者和實踐者都能更清晰地理解這個領(lǐng)域的全貌。
研究涵蓋了從理論基礎到實際應用的各個層面,不僅分析了技術(shù)架構(gòu)和評估方法,還深入探討了安全性、隱私保護、倫理考慮等現(xiàn)實挑戰(zhàn)。這種全方位的視角使得這項研究不僅對科研人員有價值,對政策制定者、產(chǎn)業(yè)界人士以及關(guān)心AI發(fā)展的普通民眾都具有重要意義。更令人振奮的是,研究團隊還維護著一個開放的論文收集平臺,持續(xù)追蹤這個快速發(fā)展領(lǐng)域的最新進展。
一、智能體的構(gòu)建藝術(shù):從零開始打造數(shù)字生命
構(gòu)建一個AI智能體,就像培養(yǎng)一個新的數(shù)字生命體。這個過程需要賦予它身份、記憶、思考能力和行動能力,每一個環(huán)節(jié)都至關(guān)重要。
首先是身份定義,這就像給一個新生兒起名字并確定他的性格特征。研究者發(fā)現(xiàn),智能體的"個性"可以通過兩種方式來塑造。第一種是人工精心設計的靜態(tài)身份,就像編劇為角色寫定的人設。比如在ChatDev系統(tǒng)中,研究者為不同的智能體分配了產(chǎn)品經(jīng)理、程序員、測試員等具體角色,每個角色都有明確的職責和行為模式,確保軟件開發(fā)流程的專業(yè)性和規(guī)范性。另一種是動態(tài)生成的身份,系統(tǒng)會根據(jù)需要自動創(chuàng)建具有不同特征的智能體。這就像一個劇團能夠根據(jù)劇本需要即興創(chuàng)造新角色,Generative Agents系統(tǒng)就展現(xiàn)了這樣的能力,能夠生成具有不同背景、價值觀和行為模式的虛擬人物。
記憶機制是智能體能夠持續(xù)學習和成長的關(guān)鍵,這里有三種不同類型的記憶系統(tǒng)。短期記憶類似于人類的工作記憶,用于處理當前任務中的即時信息。在ReAct系統(tǒng)中,智能體會記住剛剛的思考過程和行動結(jié)果,以便做出更好的下一步?jīng)Q策。然而,這種記憶是臨時的,任務結(jié)束后就會消失。長期記憶則是智能體積累經(jīng)驗和技能的寶庫。Voyager系統(tǒng)在Minecraft游戲中展現(xiàn)了這種能力,它能夠?qū)W會的技能保存為代碼庫,在面對新挑戰(zhàn)時可以調(diào)用之前掌握的技能組合。更有趣的是知識檢索式記憶,這種方式讓智能體能夠訪問外部的巨大知識庫。就像一個學者不需要記住所有知識,但知道如何快速查找需要的信息。GraphRAG系統(tǒng)就是這樣工作的,它能夠根據(jù)當前問題動態(tài)地從知識圖譜中檢索相關(guān)信息。
規(guī)劃能力讓智能體能夠像人類一樣制定和執(zhí)行復雜的計劃。這個過程分為兩個層面:任務分解和反饋驅(qū)動的迭代改進。任務分解就像烹飪一道復雜菜肴時的準備工作,需要將大目標拆分為可管理的小步驟。有些系統(tǒng)采用鏈式分解,按照線性順序逐步執(zhí)行,這種方法簡單直接但缺乏靈活性。更先進的系統(tǒng)使用樹狀規(guī)劃,就像下棋時考慮多種可能的走法,Tree-of-Thought方法讓智能體能夠探索不同的解決路徑,在遇到困難時可以回溯嘗試其他方案。反饋驅(qū)動的迭代改進讓智能體能夠從錯誤中學習。當計劃執(zhí)行不順利時,系統(tǒng)會根據(jù)環(huán)境反饋、人類指導或自我評估來調(diào)整策略,這種能力讓智能體在動態(tài)環(huán)境中表現(xiàn)得更加靈活和可靠。
行動執(zhí)行是智能體與現(xiàn)實世界交互的橋梁。這包括工具使用和物理交互兩個方面。工具使用讓智能體能夠調(diào)用各種外部工具來完成任務,就像一個手工藝人熟練使用各種工具制作作品。GPT4Tools系統(tǒng)展示了這種能力,它能夠根據(jù)任務需要選擇合適的工具,比如計算器、搜索引擎或代碼編譯器。物理交互則讓智能體能夠控制機器人或其他設備在真實世界中執(zhí)行任務。DriVLMe系統(tǒng)就是一個很好的例子,它讓大語言模型能夠理解駕駛場景并控制自動駕駛汽車。
這整個構(gòu)建過程就像培養(yǎng)一個從嬰兒成長為專業(yè)工作者的過程,每個環(huán)節(jié)都需要精心設計和持續(xù)優(yōu)化。智能體的身份決定了它的行為風格,記憶讓它能夠積累經(jīng)驗,規(guī)劃賦予它解決復雜問題的能力,而行動執(zhí)行則讓它能夠在真實世界中發(fā)揮作用。這四個要素相互配合,形成了一個完整的智能體系統(tǒng)。
二、智能體協(xié)作的奧秘:讓AI團隊發(fā)揮集體智慧
當多個智能體聚集在一起時,就像一支專業(yè)團隊,它們需要有效的協(xié)作機制來發(fā)揮集體智慧。研究者發(fā)現(xiàn),不同的協(xié)作模式適用于不同的場景和任務需求。
集中式控制就像傳統(tǒng)的企業(yè)管理模式,有一個明確的指揮中心來協(xié)調(diào)所有智能體的行動。這種模式又分為兩種實現(xiàn)方式。第一種是顯式控制器系統(tǒng),就像有一個專門的項目經(jīng)理來分配任務和整合結(jié)果。Coscientist系統(tǒng)展現(xiàn)了這種模式的優(yōu)勢,在科學實驗中,人類研究者作為中央控制器,將實驗分解為不同階段,然后分配給專門的智能體執(zhí)行,確保實驗流程的嚴格性和準確性。LLM-Blender則使用一個特殊的控制器來比較不同智能體的回答,選擇最好的結(jié)果或?qū)⒍鄠€答案融合起來。第二種是差異化系統(tǒng),通過精心設計的提示詞讓單個智能體承擔多種角色。AutoAct系統(tǒng)就是這樣工作的,它讓一個智能體分別扮演規(guī)劃者、工具使用者和反思者三個角色,通過角色切換來完成復雜任務。
分布式協(xié)作更像是一個平等的團隊合作,每個智能體都能直接與其他成員交流,沒有固定的等級關(guān)系。這種模式也有兩種主要形式。修訂式系統(tǒng)讓智能體輪流完善共同的工作成果,就像一群編輯共同修改一篇文章。MedAgents系統(tǒng)在醫(yī)療診斷中展現(xiàn)了這種協(xié)作方式,不同??频腁I醫(yī)生會依次分析患者情況,每個專家都可以在前面分析的基礎上補充自己的專業(yè)見解,最后通過投票達成診斷共識。交流式系統(tǒng)則允許智能體進行更自由的對話和討論。AutoGen框架創(chuàng)建了一個群聊環(huán)境,多個智能體可以實時交換意見、辯論不同觀點,這種動態(tài)交流往往能產(chǎn)生意想不到的創(chuàng)新解決方案。
混合式架構(gòu)結(jié)合了集中式和分布式的優(yōu)點,就像現(xiàn)代企業(yè)中的矩陣式管理結(jié)構(gòu)。靜態(tài)混合系統(tǒng)預先設定了不同層級的協(xié)作模式。CAMEL系統(tǒng)將智能體分為小組進行角色扮演,組內(nèi)采用分布式協(xié)作,組間則通過集中式協(xié)調(diào)。AFlow系統(tǒng)設計了三層架構(gòu):戰(zhàn)略規(guī)劃層采用集中式控制,戰(zhàn)術(shù)協(xié)商層使用分布式討論,而操作執(zhí)行層則根據(jù)市場機制動態(tài)分配資源。更先進的動態(tài)混合系統(tǒng)能夠根據(jù)實時情況自動調(diào)整協(xié)作模式。DiscoGraph系統(tǒng)引入了可訓練的協(xié)作拓撲優(yōu)化器,就像一個智能的組織管理系統(tǒng),能夠根據(jù)任務復雜程度和成員能力動態(tài)重組團隊結(jié)構(gòu)。
這些不同的協(xié)作模式各有優(yōu)勢。集中式控制適合需要嚴格協(xié)調(diào)和質(zhì)量控制的任務,能夠確保結(jié)果的一致性和可靠性。分布式協(xié)作更適合需要創(chuàng)新思維和多元觀點的任務,能夠充分發(fā)揮每個智能體的專長?;旌鲜郊軜?gòu)則提供了最大的靈活性,能夠根據(jù)具體情況選擇最合適的協(xié)作方式。
研究還發(fā)現(xiàn),有效的協(xié)作需要解決幾個關(guān)鍵挑戰(zhàn)。首先是信息同步問題,如何確保所有智能體都能及時獲得必要的信息。其次是角色分工問題,如何根據(jù)任務需求和智能體能力進行最優(yōu)的任務分配。第三是沖突解決問題,當智能體之間出現(xiàn)不同意見時,如何達成共識或做出最終決策。最后是性能優(yōu)化問題,如何在保證協(xié)作效果的同時控制計算成本和時間開銷。
這些協(xié)作機制的發(fā)展反映了AI系統(tǒng)正在向更加復雜和智能的方向演進。從簡單的單體智能體到復雜的多智能體系統(tǒng),再到能夠動態(tài)自組織的智能體生態(tài),這種進步讓AI系統(tǒng)能夠處理越來越復雜的現(xiàn)實問題,也為未來的人機協(xié)作模式提供了重要啟示。
三、智能體的自我進化:從學習到超越的成長之路
智能體的進化能力是其最令人著迷的特征之一,這種能力讓它們不再是靜態(tài)的工具,而是能夠持續(xù)學習、改進和適應的動態(tài)系統(tǒng)。就像生物進化一樣,AI智能體的進化也遵循著一定的規(guī)律和機制。
自主優(yōu)化和自我學習是智能體進化的基礎動力。這個過程類似于人類的自我反思和改進。自監(jiān)督學習讓智能體能夠從未標注的數(shù)據(jù)中發(fā)現(xiàn)規(guī)律和知識。SE系統(tǒng)通過動態(tài)調(diào)整學習策略來提高預訓練效果,就像一個學生根據(jù)學習進度調(diào)整復習重點。進化優(yōu)化技術(shù)則模擬了生物進化的過程,通過模型融合和適應來提高性能,這種方法特別適合在資源有限的情況下提升系統(tǒng)能力。
自我反思和糾錯機制讓智能體能夠發(fā)現(xiàn)并改正自己的錯誤。SELF-REFINE系統(tǒng)展現(xiàn)了這種能力,它會反復檢查和改進自己生成的內(nèi)容,就像一個作家不斷修改完善自己的作品。在推理任務中,STaR和V-STaR系統(tǒng)能夠訓練智能體驗證和改進自己的問題解決過程,這種能力大大提高了推理的可靠性。自我驗證技術(shù)讓智能體能夠回顧性地評估和糾正自己的輸出,這種后向驗證機制有效減少了錯誤和幻覺問題。
自我獎勵和強化學習為智能體提供了內(nèi)在的改進動機。智能體不再需要完全依賴外部評價,而是能夠生成內(nèi)部獎勵信號來指導自己的學習。Self-Rewarding系統(tǒng)讓大語言模型既充當學生又充當老師,通過自我評價來不斷改進。對比蒸餾技術(shù)通過自我獎勵機制幫助模型對齊預期行為。RLC系統(tǒng)利用評估生成差距來優(yōu)化強化學習策略,這種方法讓智能體能夠在沒有外部監(jiān)督的情況下持續(xù)改進。
多智能體協(xié)同進化展現(xiàn)了群體智慧的力量。在這種模式下,多個智能體通過相互作用和競爭來共同進步。協(xié)作學習讓智能體通過知識共享和聯(lián)合決策來提升整體能力。ProAgent系統(tǒng)讓智能體能夠推斷隊友的意圖并更新自己的信念,這種動態(tài)適應能力大大提高了零樣本協(xié)作的效果。CORY系統(tǒng)將強化學習擴展到多智能體框架,通過角色交換機制讓智能體互相學習,提高了策略的最優(yōu)性和穩(wěn)定性。
競爭性協(xié)同進化通過對抗性交互來增強智能體的魯棒性。Red-team LLMs系統(tǒng)讓智能體在對抗性環(huán)境中動態(tài)進化,通過持續(xù)的挑戰(zhàn)來發(fā)現(xiàn)和修復漏洞,這種方法有效提高了安全對齊能力。多智能體辯論框架讓多個智能體通過批評和改進彼此的論證來提高推理質(zhì)量,這種競爭性合作減少了幻覺現(xiàn)象,提高了事實準確性。MAD框架通過結(jié)構(gòu)化的辯論來鼓勵發(fā)散思維,這種方式讓智能體能夠在復雜任務中進行更深入的邏輯推理。
外部資源驅(qū)動的進化讓智能體能夠利用環(huán)境反饋和外部知識來改進自己。知識增強進化通過整合結(jié)構(gòu)化外部知識來改善推理和決策能力。KnowAgent系統(tǒng)通過整合行動知識來改進基于大語言模型的規(guī)劃,這種方法約束了決策路徑并減少了幻覺。世界知識模型通過綜合專家知識和經(jīng)驗知識來增強智能體規(guī)劃能力,提供全局先驗和動態(tài)局部知識來指導決策。
外部反饋驅(qū)動的進化讓智能體能夠通過工具、評估器和人類反饋來迭代改進行為。CRITIC系統(tǒng)讓智能體通過基于工具的反饋來驗證和修正輸出,這種方法提高了準確性并減少了不一致性。STE系統(tǒng)通過模擬試錯、想象和記憶來增強工具學習,讓智能體能夠更有效地使用工具并進行長期適應。SelfEvolve系統(tǒng)采用兩步框架,讓智能體使用執(zhí)行結(jié)果的反饋來生成和調(diào)試代碼,這種方法在沒有人類干預的情況下提高了性能。
這種多層次、多維度的進化機制讓智能體不僅能夠適應當前環(huán)境,還能夠預測和準備未來的挑戰(zhàn)。從簡單的參數(shù)調(diào)優(yōu)到復雜的認知能力提升,從個體學習到群體智慧涌現(xiàn),智能體的進化正在推動AI系統(tǒng)向更高層次的智能發(fā)展。這種進化能力不僅讓智能體在技術(shù)層面不斷改進,更重要的是讓它們具備了持續(xù)適應和創(chuàng)新的潛力,這為構(gòu)建真正智能的AI系統(tǒng)提供了重要基礎。
四、評估與工具:構(gòu)建智能體發(fā)展的基礎設施
要讓智能體真正發(fā)揮作用,就需要一套完整的評估體系和工具生態(tài)來支撐它們的開發(fā)、測試和部署。這就像建設一座城市需要完善的基礎設施一樣,智能體的發(fā)展也離不開這些支撐系統(tǒng)。
評估框架的發(fā)展反映了智能體能力的不斷提升。通用評估框架試圖全面衡量智能體的多維能力。AgentBench構(gòu)建了一個統(tǒng)一的測試環(huán)境,涵蓋八個不同的交互環(huán)境,就像一個綜合性的考試,全面檢驗智能體的推理、規(guī)劃和執(zhí)行能力。Mind2Web將評估擴展到真實的網(wǎng)絡交互場景,提出了首個能夠評估137個真實網(wǎng)站、跨越31個領(lǐng)域的通用智能體基準。這種開放環(huán)境基準讓評估更接近真實應用場景。MMAU通過超過3000個跨領(lǐng)域任務,將智能體智能分解為五個核心能力維度,提供了細粒度的能力映射和解釋性評估。
動態(tài)和自進化評估范式解決了傳統(tǒng)靜態(tài)基準容易過時的問題。BENCHAGENTS能夠自動創(chuàng)建基準測試,就像一個永不疲倦的出題老師,能夠根據(jù)智能體的發(fā)展水平持續(xù)生成新的挑戰(zhàn)。基準自進化系統(tǒng)引入了六種重構(gòu)操作來動態(tài)生成測試實例,專門用于檢測智能體是否存在走捷徑的偏見。這種適應性評估確保了基準測試始終能夠準確反映智能體的真實能力水平。
領(lǐng)域?qū)S迷u估系統(tǒng)針對特定應用場景提供了深度的能力測試。在醫(yī)療領(lǐng)域,MedAgentBench包含了由300名臨床醫(yī)生設計的任務,在符合FHIR標準的環(huán)境中測試醫(yī)療智能體。AI Hospital則通過多智能體協(xié)作模擬完整的臨床工作流程。在自動駕駛領(lǐng)域,LaMPilot通過代碼生成基準將大語言模型連接到自動駕駛架構(gòu)。在數(shù)據(jù)科學領(lǐng)域,DSEval和DA-Code覆蓋了從數(shù)據(jù)辯論到模型部署的完整生命周期管理。
真實世界環(huán)境模擬讓評估更加貼近實際應用。OSWorld構(gòu)建了首個可擴展的真實計算機生態(tài)系統(tǒng),支持跨Ubuntu、Windows、macOS的369個多應用任務。這種環(huán)境讓智能體在真實的操作系統(tǒng)中接受測試,大大提高了評估的可信度。EgoLife通過300小時的多模態(tài)自我中心數(shù)據(jù)集捕捉日常人類活動,測試智能體的長期記憶檢索、健康習慣監(jiān)測和個性化推薦能力。
協(xié)作評估關(guān)注多智能體系統(tǒng)的集體表現(xiàn)。TheAgentCompany開創(chuàng)了企業(yè)級評估,通過模擬軟件公司環(huán)境來測試網(wǎng)絡交互和代碼協(xié)作能力。MLRB設計了7個競賽級機器學習研究任務,MLE-Bench通過71個真實世界競賽評估Kaggle風格的模型工程能力。這些評估揭示了多智能體協(xié)作中的可擴展性挑戰(zhàn)。
工具生態(tài)系統(tǒng)為智能體提供了豐富的功能擴展。智能體使用的工具主要分為三類:知識檢索工具幫助智能體獲取實時信息,WebGPT成功結(jié)合了在線搜索引擎和大語言模型,使用商業(yè)API來獲取最新知識。計算工具解決了智能體在精確計算方面的不足,Python解釋器和數(shù)學計算器讓智能體能夠進行復雜的數(shù)值計算和代碼執(zhí)行。Toolformer展示了如何讓智能體在保持通用性的同時有效調(diào)用外部工具。API交互工具讓智能體能夠調(diào)用外部服務,RestGPT探索了將大語言模型與RESTful API結(jié)合的現(xiàn)實場景。
智能體創(chuàng)建的工具展現(xiàn)了它們的創(chuàng)造性能力。CREATOR提供了一個四階段框架——創(chuàng)建、決策、執(zhí)行和反思,讓智能體能夠創(chuàng)建工具并提高輸出的魯棒性。Toolink通過創(chuàng)建工具集然后通過解決方案鏈方法整合工具的規(guī)劃和調(diào)用來執(zhí)行任務解決。LATM提出了兩階段框架,讓大語言模型分別充當工具制造者和工具使用者,通過工具緩存機制提高任務解決效率并降低成本。
部署工具為智能體的實際應用提供了基礎設施支持。生產(chǎn)化工具的主要目的是讓用戶能夠輕松地在生產(chǎn)環(huán)境中部署智能體。AutoGen提供了開源框架,讓開發(fā)者能夠構(gòu)建具有可定制、對話式多智能體的大語言模型應用。LangChain作為高度可擴展的開源框架,允許用戶創(chuàng)建自定義模塊和工作流來滿足特定需求。運維工具確保模型在訓練和生產(chǎn)期間的良好表現(xiàn)。Ollama提供了可觀察性和監(jiān)控支持,讓團隊能夠?qū)崟r跟蹤模型性能。模型上下文協(xié)議作為開放協(xié)議,標準化了應用程序向大語言模型提供上下文的方式,用于創(chuàng)建大語言模型和數(shù)據(jù)源之間的安全鏈接。
這整套評估與工具體系就像智能體發(fā)展的生態(tài)系統(tǒng),為技術(shù)進步提供了重要支撐。評估框架確保了發(fā)展方向的正確性,工具生態(tài)系統(tǒng)提供了能力擴展的可能性,而部署基礎設施則讓理論研究能夠轉(zhuǎn)化為實際應用。隨著這個生態(tài)系統(tǒng)的不斷完善,智能體技術(shù)正在加速從實驗室走向?qū)嶋H應用,為各行各業(yè)帶來智能化轉(zhuǎn)型的機會。
五、現(xiàn)實世界的挑戰(zhàn):安全、隱私與倫理的三重考驗
當AI智能體從實驗室走向現(xiàn)實世界時,它們面臨著前所未有的挑戰(zhàn)。這些挑戰(zhàn)不僅是技術(shù)問題,更涉及安全、隱私和社會倫理等多個層面,需要我們認真對待和妥善解決。
智能體安全面臨著多重威脅,就像一座城堡需要防范來自不同方向的攻擊。對抗性攻擊試圖通過精心設計的輸入來誤導智能體做出錯誤決策。這就像在導航系統(tǒng)中故意設置錯誤路標,讓司機走錯路。AgentDojo框架通過97個現(xiàn)實任務和629個安全測試用例來評估智能體在對抗攻擊下的魯棒性。CheatAgent系統(tǒng)展示了攻擊者如何通過識別最佳插入位置、生成對抗擾動,并通過迭代提示調(diào)優(yōu)和反饋來攻擊基于大語言模型的推薦系統(tǒng)。為了防御這些攻擊,LLAMOS引入了防御技術(shù),通過智能體指令和防御指導來凈化對抗輸入。
越獄攻擊試圖突破智能體的安全限制,獲得未授權(quán)的功能或信息。這種攻擊就像黑客試圖繞過防火墻獲取系統(tǒng)權(quán)限。RLTA使用強化學習自動生成攻擊,產(chǎn)生惡意提示來觸發(fā)智能體的越獄行為。Atlas通過變異智能體和選擇智能體來越獄帶有安全過濾器的文本到圖像模型。為了應對這些威脅,AutoDefense提出了多智能體防御框架,使用具有專門角色的智能體協(xié)作過濾有害響應。Guardians使用三種檢查方法來檢測惡意智能體并對抗越獄攻擊。
后門攻擊在智能體中植入特定觸發(fā)器,當遇到這些觸發(fā)器時會產(chǎn)生預設的錯誤行為。這就像在汽車中安裝了隱藏的遙控開關(guān),可以被惡意操控。DemonAgent提出了動態(tài)加密的多后門植入攻擊方法,通過動態(tài)加密將后門映射和分解為多個片段以避免安全審計。BadAgent攻擊基于大語言模型的智能體,通過特定輸入或環(huán)境線索作為后門觸發(fā)有害操作。
智能體協(xié)作攻擊針對多智能體系統(tǒng)的交互機制。CORBA利用傳染和遞歸特性來破壞智能體交互,這些特性很難通過對齊來緩解。AiTM通過攔截和操縱智能體間消息來攻擊多智能體系統(tǒng),使用具有反思機制的對抗智能體。為了防御這些攻擊,Netsafe識別了影響多智能體網(wǎng)絡安全的關(guān)鍵安全現(xiàn)象和拓撲屬性。
數(shù)據(jù)中心安全關(guān)注輸入數(shù)據(jù)的完整性和安全性。用戶輸入偽造是最直接的攻擊方式,通過修改用戶輸入來誘導智能體產(chǎn)生不當輸出。這些注入攻擊可能導致不受控制和危險的輸出,雖然簡單但往往能達到最高的攻擊成功率。惡意前綴提示和心理誘導也是常見的攻擊手段,攻擊者在提示中加入誘導性內(nèi)容來引導智能體進入特定的角色扮演狀態(tài)。
外部數(shù)據(jù)源投毒針對基于檢索增強生成的智能體系統(tǒng)。攻擊者在知識數(shù)據(jù)庫中注入惡意樣本,或者通過間接提示注入將惡意指令嵌入外部知識源中。這種攻擊特別危險,因為它可以影響所有使用被污染數(shù)據(jù)源的智能體。WIPI通過公共網(wǎng)頁間接控制智能體來投毒指令。為了防御這些攻擊,研究者采用多智能體辯論的方法,讓每個智能體充當領(lǐng)域?qū)<襾眚炞C外部知識的真實性。
交互攻擊利用智能體與用戶或其他智能體的交互過程。在用戶和智能體界面的交互中,一些智能體在用戶計算機內(nèi)存中存儲私人用戶交互來增強對話性能,這可能被攻擊者利用來提取私人信息。在智能體間交互中,攻擊者可能投毒單個智能體,然后感染其他智能體,這種遞歸攻擊最終會耗盡計算資源。
隱私保護面臨著記憶漏洞和知識產(chǎn)權(quán)盜用的雙重威脅。大語言模型的記憶能力雖然強大,但也可能泄露訓練數(shù)據(jù)中的敏感信息。數(shù)據(jù)提取攻擊利用模型的記憶能力從訓練數(shù)據(jù)中提取敏感信息,如個人身份信息。成員推理攻擊試圖確定特定數(shù)據(jù)樣本是否被用于訓練模型,這在多智能體系統(tǒng)中尤其危險,因為訓練數(shù)據(jù)可能來自多個敏感信息源。屬性推理攻擊試圖推斷數(shù)據(jù)樣本的某些特征或特性,這種攻擊可能揭露訓練數(shù)據(jù)的敏感屬性。
知識產(chǎn)權(quán)盜用包括模型竊取和提示盜用。模型竊取攻擊試圖通過查詢模型并觀察其響應來提取模型信息。提示盜用攻擊涉及推斷可能具有重要商業(yè)價值的原始提示。這些攻擊對個人和組織都構(gòu)成嚴重威脅,需要通過模型水印、區(qū)塊鏈驗證等技術(shù)手段來防護。
社會影響和倫理考慮涉及更廣泛的社會層面。智能體帶來的益處包括自動化增強,它們在醫(yī)療、法律、教育等領(lǐng)域的應用大大提高了效率和可及性。工作崗位創(chuàng)造和勞動力轉(zhuǎn)型雖然可能替代某些工作,但也創(chuàng)造了新的技術(shù)崗位和管理職位。信息分發(fā)增強讓知識傳播更加高效,如智能在線輔導系統(tǒng)為教育帶來了革命性變化。
然而,倫理擔憂同樣不容忽視。偏見和歧視問題源于訓練數(shù)據(jù)中的固有偏見,可能在學習過程中被放大。問責制是另一個關(guān)鍵挑戰(zhàn),盡管研究者努力減少有害內(nèi)容生成,但風險依然存在,而且大量未記錄數(shù)據(jù)的整合使得監(jiān)督變得困難。版權(quán)問題涉及訓練數(shù)據(jù)的合法使用,許多創(chuàng)作者反對其作品被用于訓練可能取代他們的模型。
這些現(xiàn)實世界的挑戰(zhàn)需要技術(shù)、法律、倫理等多個層面的綜合解決方案。只有在確保安全、保護隱私、維護倫理的前提下,智能體技術(shù)才能真正造福人類社會。這要求我們在推進技術(shù)發(fā)展的同時,建立完善的監(jiān)管框架和倫理準則,確保智能體的發(fā)展始終服務于人類的福祉。
六、應用領(lǐng)域:智能體改變世界的具體實踐
AI智能體正在各個領(lǐng)域展現(xiàn)出令人驚嘆的應用潛力,從科學發(fā)現(xiàn)到娛樂游戲,從社會模擬到生產(chǎn)力工具,它們正在重新定義我們工作和生活的方式。
科學發(fā)現(xiàn)領(lǐng)域展現(xiàn)了智能體協(xié)作的巨大價值。在通用科學研究中,SciAgents框架使用不同的智能體角色如"本體論者"、"科學家"和"批評家"來協(xié)作生成和改進科學假設。這個系統(tǒng)以本體知識圖譜為中心,編碼科學概念之間的關(guān)系,讓基于ChatGPT-4的智能體能夠生成新穎的研究想法和實驗計劃。在生物啟發(fā)材料的案例研究中,一個智能體提出將絲綢與新型顏料整合的方案,另一個智能體建議通過仿真實驗來測試這個想法,而批評智能體則識別弱點并促進改進。Curie系統(tǒng)展示了自動化實驗的潛力,架構(gòu)師智能體首先設計高級實驗計劃來回答科學問題,然后多個技術(shù)員智能體執(zhí)行具體的實驗步驟。
在化學、材料科學和天文學等數(shù)據(jù)豐富的領(lǐng)域,智能體應用特別活躍。ChemCrow作為專門的化學智能體,整合了18個專家設計的化學工具,如分子屬性預測器、反應規(guī)劃器和數(shù)據(jù)庫,能夠自主規(guī)劃和執(zhí)行化學合成。AtomAgents框架展示了物理感知的多智能體系統(tǒng)在合金設計中的應用,規(guī)劃者智能體分解復雜的材料設計挑戰(zhàn),批評智能體驗證方案,然后委托給專門模塊執(zhí)行。在天文學領(lǐng)域,研究者為切倫科夫望遠鏡陣列開發(fā)了AI副駕駛智能體,使用指令調(diào)優(yōu)的大語言模型來自主管理望遠鏡配置數(shù)據(jù)庫,甚至為數(shù)據(jù)分析工作流程生成代碼。
生物學領(lǐng)域的智能體應用聚焦于假設生成和數(shù)據(jù)分析。BioDiscoveryAgent提出了用于分子生物學遺傳擾動實驗設計的AI智能體,通過解析文獻和基因數(shù)據(jù)庫,智能體能夠建議哪些基因敲除或編輯可能闡明特定的生物通路。GeneAgent使用自我改進循環(huán)從生物醫(yī)學數(shù)據(jù)庫中發(fā)現(xiàn)基因關(guān)聯(lián),通過與已知基因集合的交叉檢查來提高發(fā)現(xiàn)的可靠性。這種自我質(zhì)疑或自我驗證的方法在多智能體科學AI中很常見:一個或多個智能體提出科學見解,另一個智能體用已知知識評估其合理性,從而減少錯誤。
科學數(shù)據(jù)集構(gòu)建也從多智能體系統(tǒng)中受益匪淺。PathGen-1.6M通過多智能體協(xié)作生成了大規(guī)模病理學圖像數(shù)據(jù)集,其中多個AI模型發(fā)揮不同作用:一個視覺模型掃描全切片組織學圖像選擇代表性區(qū)域,另一個模型為每個區(qū)域生成描述性標題,額外的智能體迭代改進標題的準確性。KALIN開發(fā)了多智能體協(xié)作框架來生成高質(zhì)量的領(lǐng)域大語言模型訓練語料庫,兩個不同的大語言模型被訓練用分塊研究文章作為上下文生成科學問題,然后利用知識層次結(jié)構(gòu)自我評估生成問題與輸入上下文的對齊性。
醫(yī)療領(lǐng)域的應用展現(xiàn)了智能體在復雜決策支持中的潛力。醫(yī)療記錄數(shù)字化為在醫(yī)療服務中應用智能體AI帶來了巨大潛力。AgentHospital創(chuàng)建了由大語言模型驅(qū)動的醫(yī)生、護士和患者智能體填充的虛擬醫(yī)院,模擬從分診到診斷到治療的完整護理周期。在這個系統(tǒng)中,每個患者智能體呈現(xiàn)癥狀,醫(yī)生智能體必須與患者對話、訂購虛擬測試、做出診斷并開處方治療。ClinicalLab引入了多科室醫(yī)療診斷的綜合基準和智能體,涉及24個醫(yī)療專科的150種疾病,反映了醫(yī)院環(huán)境所需的知識廣度。
醫(yī)療影像是另一個智能體AI整合的成熟領(lǐng)域。CXR-Agent使用視覺語言模型和大語言模型來解釋胸部X光片并生成帶有不確定性估計的放射學報告。MedRAX整合了多個專門工具,如用于閱讀先前報告的光學字符閱讀器、用于突出圖像區(qū)域的分割模型,以及用于臨床推理的大語言模型,來解決復雜的胸部X光案例。
游戲領(lǐng)域為智能體提供了理想的測試環(huán)境。在游戲玩法方面,ReAct提示大語言模型將推理和反思整合到動作生成中,增強了在具身環(huán)境中的決策制定。Voyager引入了Minecraft中的終身學習智能體,持續(xù)探索游戲世界并學習新技能。ChessGPT在混合游戲語言數(shù)據(jù)上訓練自主智能體,促進棋盤狀態(tài)評估和棋類游戲。GLAM在BabyAI文本環(huán)境中構(gòu)建智能體,使用策略選擇下一個動作,通過在線強化學習進行訓練。
在游戲生成方面,CALYPSO創(chuàng)建大語言模型智能體作為助手,幫助在龍與地下城的背景下構(gòu)建引人注目的敘事。GameGPT利用雙智能體協(xié)作和分層方法,使用多個內(nèi)部字典來自動化和增強游戲開發(fā)過程。一些研究創(chuàng)造了1001夜的互動故事游戲體驗,結(jié)合指導性語言模型和圖像生成來塑造敘事和世界。
社會科學領(lǐng)域的應用展現(xiàn)了智能體在理解復雜社會現(xiàn)象方面的價值。在經(jīng)濟學中,Econagent使用提示工程創(chuàng)建模擬人類決策或宏觀經(jīng)濟模擬的智能體。TradingGPT提出了金融交易的多智能體框架,通過整合分層記憶結(jié)構(gòu)和具有個性化交易檔案的辯論機制來模擬人類決策過程。CompeteAI利用智能體模擬虛擬城鎮(zhèn)中餐廳和顧客的互動,提供與社會學和經(jīng)濟理論一致的見解。
在心理學研究中,智能體被用來模擬具有不同特質(zhì)和認知過程的人類行為。研究者調(diào)查了使用基于大語言模型的對話智能體進行心理健康支持的心理影響和潛在益處。另一項研究探索了具有獨特特征和思維過程的智能體如何復制人類社會行為,包括從眾性和多數(shù)影響。TE使用智能體模擬心理學實驗,可能揭示語言模型在復制特定人類行為方面的一致性扭曲。
社會模擬是智能體應用的另一個重要領(lǐng)域。Generative Agents在交互沙盒環(huán)境中引入了多智能體交互模型,利用智能體在各種背景下模擬現(xiàn)實的人類行為。基于此,一些研究引入了訓練范式,讓大語言模型能夠從涉及多個智能體的這些模擬社會互動中學習。S3開發(fā)了基于大語言模型的多智能體系統(tǒng),確保智能體的行為密切模擬社交網(wǎng)絡中真實人類的行為。
生產(chǎn)力工具領(lǐng)域的應用直接影響日常工作效率。在軟件開發(fā)中,SDM引入了自協(xié)作框架,指導多個智能體協(xié)作進行代碼生成任務,增強它們協(xié)作解決復雜軟件開發(fā)挑戰(zhàn)的能力。ChatDev提出了聊天驅(qū)動的軟件開發(fā)框架,指導智能體進行有效的溝通。MetaGPT通過元編程方法將人類工作流程整合到基于大語言模型的多智能體協(xié)作中,增強協(xié)調(diào)并簡化協(xié)作過程。
在推薦系統(tǒng)中,Agent4Rec使用具有集成用戶建模、記憶和動作模塊的智能體來模擬推薦系統(tǒng)中的用戶行為。AgentCF將用戶和物品都視為智能體,引入?yún)f(xié)作學習框架來模擬推薦系統(tǒng)中的用戶-物品交互。MACRec直接開發(fā)多個智能體來處理推薦任務。RecMind使用智能體整合外部知識并仔細規(guī)劃工具的利用,用于零樣本個性化推薦。
這些豐富多樣的應用展現(xiàn)了智能體技術(shù)的巨大潛力。從推動科學前沿到改善日常生活,從理解社會現(xiàn)象到娛樂互動,智能體正在成為連接虛擬世界和現(xiàn)實世界的重要橋梁。隨著技術(shù)的不斷發(fā)展和完善,我們可以期待智能體在更多領(lǐng)域發(fā)揮重要作用,為人類社會帶來更多價值。
七、未來挑戰(zhàn)與發(fā)展趨勢:智能體技術(shù)的前路展望
盡管AI智能體技術(shù)發(fā)展迅速,但在走向廣泛應用的道路上仍面臨諸多挑戰(zhàn)。這些挑戰(zhàn)不僅是技術(shù)問題,更涉及如何讓智能體真正融入人類社會的方方面面。
可擴展性和協(xié)調(diào)性是當前最緊迫的技術(shù)挑戰(zhàn)。隨著智能體數(shù)量的增加和任務復雜度的提升,系統(tǒng)面臨著巨大的計算負擔和協(xié)調(diào)困難?,F(xiàn)有的多智能體框架主要為輕量級智能體設計,如函數(shù)調(diào)用和基于規(guī)則的系統(tǒng),但這些框架缺乏針對擁有數(shù)十億參數(shù)的大語言模型智能體的系統(tǒng)級優(yōu)化。未來的發(fā)展方向包括分層結(jié)構(gòu)設計,讓高級智能體將子任務委托給專門的低級智能體,以及分散式規(guī)劃,使智能體能夠并發(fā)規(guī)劃并定期同步以減少瓶頸。健壯的通信協(xié)議和高效的調(diào)度機制對于增強協(xié)調(diào)、實時決策和系統(tǒng)魯棒性至關(guān)重要。
記憶約束和長期適應是智能體持續(xù)發(fā)展的關(guān)鍵瓶頸。在多輪對話中保持連貫性以及縱向知識積累需要有效的記憶機制,但大語言模型的有效上下文長度有限,將足夠的歷史信息整合到提示中變得具有挑戰(zhàn)性。這阻礙了模型在擴展交互中的上下文感知能力。確保交互連續(xù)性需要高效的記憶可擴展性和相關(guān)性管理,超越當前的向量數(shù)據(jù)庫、記憶緩存、上下文窗口管理和檢索增強生成等實踐。未來的方向包括分層記憶架構(gòu),結(jié)合短期規(guī)劃的情節(jié)記憶和長期保留的語義記憶,以及自主知識壓縮,動態(tài)細化記憶并增強在擴展交互中的推理能力。
可靠性和科學嚴謹性對于智能體在高風險應用中的部署至關(guān)重要。大語言模型雖然知識豐富,但既不全面也不是最新的,因此可能不適合作為結(jié)構(gòu)化數(shù)據(jù)庫的獨立替代品。它們的隨機性質(zhì)使輸出對提示的微小變化高度敏感,導致幻覺并在多智能體系統(tǒng)中加劇不確定性。這在醫(yī)療應用和自主科學發(fā)現(xiàn)等高風險領(lǐng)域尤其令人擔憂,不可靠的輸出可能誤導關(guān)鍵決策。解決這些挑戰(zhàn)需要開發(fā)嚴格的驗證機制和結(jié)構(gòu)化驗證流程,包括基于知識圖譜的驗證和通過檢索的交叉引用。在醫(yī)療保健、法律或科學研究等高風險領(lǐng)域,純自動化仍然存在風險,人工-AI驗證循環(huán)正成為確保安全性、可靠性和問責制的標準。
多輪、多智能體動態(tài)評估是傳統(tǒng)評估框架無法解決的新挑戰(zhàn)。傳統(tǒng)的AI評估框架為靜態(tài)數(shù)據(jù)集和單輪任務設計,無法捕捉多輪、多智能體環(huán)境中智能體的復雜性。當前基準主要評估孤立設置中的任務執(zhí)行,忽略了在多輪交互中展開的緊急智能體行為、長期適應和協(xié)作推理。靜態(tài)基準還難以跟上快速發(fā)展的大語言模型能力。關(guān)于潛在數(shù)據(jù)污染的擔憂依然存在,模型性能可能源于記憶而非真正的推理。未來研究應專注于動態(tài)評估方法,整合多智能體交互場景、結(jié)構(gòu)化性能指標和自適應樣本生成算法,以創(chuàng)建更健壯和可靠的評估框架。
監(jiān)管措施對于安全部署變得越來越重要。隨著智能體系統(tǒng)獲得自主性,監(jiān)管框架必須不斷發(fā)展以確保問責制、透明度和安全性。一個關(guān)鍵挑戰(zhàn)是減輕算法偏見,智能體可能會基于性別、年齡、種族或其他敏感屬性進行無意識歧視,通常以開發(fā)者難以察覺的方式。解決這一問題需要標準化的審計協(xié)議來系統(tǒng)識別和糾正偏見,以及記錄決策路徑和模型置信度的可追溯性機制,以便事后問責。未來工作可以探索結(jié)合公平感知訓練流程與法律和倫理保障的多學科方法。政策制定者、研究者和行業(yè)利益相關(guān)者之間的協(xié)作對于確保AI驅(qū)動系統(tǒng)安全、公平地運行并符合社會價值觀至關(guān)重要。
角色扮演場景面臨著獨特的挑戰(zhàn)。智能體可以模擬研究者、辯論者和講師等角色,但它們的有效性受到訓練數(shù)據(jù)限制和對人類認知理解不完整的約束。由于大語言模型主要在基于網(wǎng)絡的語料庫上訓練,它們在模擬在線代表性不足的角色方面存在困難,并且往往產(chǎn)生缺乏多樣性的對話。未來研究應專注于通過改善多智能體協(xié)調(diào)、整合現(xiàn)實世界推理框架和改進對話多樣性來增強角色扮演保真度,以更好地支持復雜的人機交互。
展望未來,我們可以預期幾個重要的發(fā)展趨勢。協(xié)調(diào)協(xié)議將變得更加智能和自適應,能夠根據(jù)任務需求和環(huán)境變化動態(tài)調(diào)整協(xié)作模式?;旌霞軜?gòu)將結(jié)合不同智能體系統(tǒng)的優(yōu)勢,創(chuàng)造出更加靈活和高效的解決方案。自監(jiān)督學習技術(shù)將讓智能體能夠更好地從經(jīng)驗中學習,減少對人工標注數(shù)據(jù)的依賴。安全機制將變得更加完善,包括實時威脅檢測、自動防御響應和倫理約束等功能。
這些挑戰(zhàn)和趨勢表明,智能體技術(shù)正處于一個關(guān)鍵的發(fā)展節(jié)點。雖然面臨諸多困難,但隨著技術(shù)的不斷進步和各方的共同努力,我們有理由相信智能體將在未來發(fā)揮更加重要的作用,真正成為推動社會進步的重要力量。關(guān)鍵是要在追求技術(shù)突破的同時,始終將人類福祉放在首位,確保智能體技術(shù)的發(fā)展方向符合人類的長遠利益。
說到底,這項由北京大學等多家頂尖機構(gòu)共同完成的研究,為我們描繪了一幅AI智能體發(fā)展的全景圖。從技術(shù)架構(gòu)到實際應用,從現(xiàn)實挑戰(zhàn)到未來趨勢,這個領(lǐng)域正在以前所未有的速度發(fā)展和演進。就像一場正在進行的技術(shù)革命,AI智能體正在從科幻想象變?yōu)楝F(xiàn)實工具,它們不僅能夠獨立思考和行動,還能夠相互協(xié)作、持續(xù)學習,甚至在某些領(lǐng)域超越人類的表現(xiàn)。
這種發(fā)展既讓人興奮又讓人深思。一方面,智能體技術(shù)為解決復雜問題、提高工作效率、推動科學發(fā)現(xiàn)提供了強大工具。另一方面,它也帶來了安全、隱私、倫理等方面的新挑戰(zhàn),需要我們認真對待和妥善處理。歸根結(jié)底,技術(shù)的價值不在于其復雜程度,而在于能否真正改善人類生活、促進社會進步。
在這個快速變化的時代,了解和掌握智能體技術(shù)的發(fā)展動向,不僅對科研人員和從業(yè)者重要,對每一個可能受到這項技術(shù)影響的人都有意義。畢竟,我們正在見證人工智能發(fā)展史上的一個重要時刻,而這項研究為我們提供了理解這個時刻的珍貴視角。感興趣的讀者可以通過arXiv:2503.21460v1查閱完整的研究論文,深入了解這個激動人心的技術(shù)領(lǐng)域。
Q&A
Q1:AI智能體和普通的AI助手有什么區(qū)別? A:AI智能體不只是被動回答問題,而是能夠主動感知環(huán)境、制定計劃、執(zhí)行任務的數(shù)字生命體。它們有自己的"身份"、"記憶"和"思考能力",能夠持續(xù)學習和與其他智能體協(xié)作,就像數(shù)字世界中真正的工作伙伴。
Q2:多個智能體是怎么協(xié)作的?不會互相干擾嗎? A:研究發(fā)現(xiàn)了三種主要協(xié)作模式:集中式(有一個"項目經(jīng)理"統(tǒng)一指揮)、分布式(大家平等討論)和混合式(根據(jù)情況靈活切換)。通過精心設計的通信協(xié)議和角色分工,智能體們能夠像專業(yè)團隊一樣高效協(xié)作,而不是各行其是。
Q3:AI智能體會不會對人類社會造成威脅? A:研究指出了多種潛在風險,包括安全攻擊、隱私泄露和倫理問題。但同時也在積極開發(fā)防護機制,如多智能體辯論來驗證信息真實性、自我驗證系統(tǒng)來減少錯誤等。關(guān)鍵是要在技術(shù)發(fā)展的同時建立完善的監(jiān)管和倫理框架。
好文章,需要你的鼓勵
浙江大學團隊提出動態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學、編程等任務上顯著提升推理準確率,且不增加計算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學研究團隊提出SIRI方法,通過"壓縮-擴張"交替訓練策略,成功解決了大型推理模型"話多且準確率低"的問題。實驗顯示,該方法在數(shù)學競賽題上將模型準確率提升43.2%的同時,輸出長度減少46.9%,真正實現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓練提供了新思路。
南洋理工大學與騰訊聯(lián)合研究團隊開發(fā)出Rolling Forcing技術(shù),實現(xiàn)AI視頻實時流式生成的重大突破。該技術(shù)通過滾動窗口聯(lián)合去噪、注意力錨點機制和高效訓練算法三項創(chuàng)新,解決了長視頻生成中的錯誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學研究團隊發(fā)現(xiàn),通過讓AI模型學習解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個幾何題目的Euclid30K數(shù)據(jù)集,使用強化學習方法訓練多個AI模型。實驗結(jié)果顯示,幾何訓練在四個空間智能測試基準上都帶來顯著提升,其中最佳模型達到49.6%準確率,超越此前最好成績。這項研究揭示了基礎幾何知識對培養(yǎng)AI空間智能的重要價值。