<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      讓外部知識“長入”模型:動態化與參數化 RAG 技術探索

      0
      分享至


      演講嘉賓|艾清遙 博士

      編輯|Kitty

      策劃|QCon 全球軟件開發大會

      檢索增強生成(RAG)已成為幫助大型語言模型(LLMs)利用和學習外部知識的主流范式。然而,傳統的 RAG 方法通常將 LLMs 視為靜態的黑箱,僅依賴提示詞和上下文工程來整合檢索到的信息。這忽略了兩個重要的問題,即 LLM 推理過程中的動態信息需求和 LLM 在內、外部知識利用過程存在的機制鴻溝。

      在 2025 年 QCon 全球軟件開發大會(上海站) 上,清華大學計算機科學與技術系副教授,博士生導師自艾清遙 博士作了題為 “讓外部知識“長入”模型:動態化與參數化 RAG 技術探索”的演講,他介紹了如何從注意力網絡和多層感知機權重兩個角度實現動態化和參數化的檢索增強,在不改變 LLM 原有參數的前提下實現無縫且實時的外部知識注入。實驗表明,與傳統 RAG 相比,基于動態化和參數化的檢索增強技術可以在提升系統的準確性和適應性的同時顯著減少計算開銷。

      預告:將于 4 月 16 - 18 召開的 QCon 北京站設計了「OpenClaw 生態實踐」專題,本專題聚焦一線實踐與踩坑復盤,分享企業如何構建私有 Skills、制定安全護欄、搭建審計與回放機制、建立質量 / 效率指標體系,最終把自托管 Agent 從可用的 Demo 升級為可靠的生產系統。敬請關注。

      以下是演講實錄(經 InfoQ 進行不改變原意的編輯整理)。

      背景與動機

      大語言模型的出現,已經深刻地改變了我們生活的方方面面。作為一名長期關注人工智能與計算機科學的研究者,我愈發清晰地意識到:倘若把大語言模型單純視為一種“信息工具”,它恰好具備了過去信息檢索領域夢寐以求卻難以兼得的三項特質。其一,它提供了近乎自然的交互方式——用戶可以用日常語言與之對話,無需學習任何查詢語法;其二,它擁有卓越的自然語言理解與推理能力,這在早期的檢索模型或自然語言處理系統中極為罕見;其三,它表現出驚人的任務泛化性,同一套參數即可應對翻譯、摘要、問答等多種場景。正因這些優勢,ChatGPT 甫一問世,便引發了“搜索引擎是否將被取代”的熱烈討論。

      然而,時間給出了答案:ChatGPT 并未取代傳統搜索引擎。究其原因,大語言模型存在若干致命短板。首先是“幻覺”問題——模型會自信滿滿地輸出與事實不符的內容;其次,生成結果難以溯源,用戶無法驗證信息來源;再次,從現實部署角度看,大模型推理成本高昂,靈活性不足,難以滿足高并發、低延遲的檢索需求。

      為了彌補上述缺陷,學界與工業界很快提出了“檢索增強生成”(Retrieval-Augmented Generation,RAG)這一新范式。如今,RAG 已被公認為緩解大模型幻覺、提升事實準確性的最有效手段之一。若用更技術化的語言描述,RAG 本質上是一次“外部知識注入”:將原本游離于模型參數之外的知識,以某種形式饋送給生成模型,從而避免幻覺、實現溯源。最常見的做法,是把檢索到的文檔直接拼入提示詞,再交由大模型作答。然而,這一流程引出了三個核心難題。


      第一,何時觸發檢索?當前系統大致有兩類做法:一種是“默認始終檢索”,或在界面上放置一個按鈕,由用戶手動觸發;另一種則是所謂的“深度研究”模式——人工預設工作流,讓模型在特定節點調用檢索工具。無論哪種方式,本質上都是人為規定,而非讓模型自主判斷。


      第二,檢索什么內容?即如何構造查詢。簡單做法是將用戶輸入原封不動地作為查詢詞;進階方案則沿用“深度研究”思路,人工設計查詢改寫流程,讓模型生成若干候選查詢,再交由搜索引擎執行。同樣,這一過程仍高度依賴人工模板。


      第三,如何把外部知識注入模型?主流做法依舊是“塞進提示詞”,優點是靈活,缺點也很明顯:提示詞長度有限,且模型對提示詞的利用效率未必最優。事實上,大模型的知識不僅存在于提示詞,更深層地嵌入在其參數之中。倘若能把外部知識直接寫入參數,或許既能節省上下文窗口,又能提升知識利用率。


      回顧上述三點,不難發現:現有檢索增強技術幾乎都把大模型當作“靜態黑盒”。我們并不關心其內部狀態,只是從外部搬運文檔、拼接提示詞,再期待模型給出滿意答復。這種思路與人類交互頗為相似——我們無法窺視他人思維,只能通過語言或界面與之溝通。然而,大模型終究不是人;它內部的計算過程、注意力分布、隱狀態表示,對我們而言是可觀測、可干預的。若能深入探查模型的內部信息流,或許就能設計出更精準、更高效的檢索增強框架。

      例如,針對“何時檢索”的問題,倘若能夠實時監測模型的內部狀態,我們便可僅在模型真正需要外部知識時才觸發檢索,而非盲目地“每問必搜”,或遵循人工流程。這不僅能降低調用成本,還能在模型即將出現幻覺的瞬間及時“剎車”。再如查詢生成。過去我們只能依賴提示詞讓模型“自己看著辦”,如今若能解析模型內部對知識的真實需求,便可據此構造更貼切的查詢,從而顯著提升召回準確率。

      最后,關于知識注入。除了把文檔塞進提示詞,我們是否可以探索將外部知識直接融合進模型參數?一旦成功,既能緩解上下文長度壓力,又可能讓模型像對待“內隱知識”那樣高效地利用外部信息。


      基于以上思考,我們圍繞“何時檢索、檢索什么、如何注入”三個維度,展開了一系列研究,并將其統稱為“動態化與參數化檢索增強技術”。接下來,我將具體介紹我們在這三個方向上已取得的工作與初步成果。

      生成中的動態信息需求建模

      第一步,是回答“何時去查”。在生成過程中,動態地刻畫信息需求,是我們與傳統靜態檢索增強范式的根本分歧。傳統做法通常只在每次生成前觸發一次檢索:最簡單的情形是,用戶每提出一個問題,系統便執行一次搜索;稍復雜的“深度研究”模式,也不過是把工作流切成若干階段,每到一個階段就固定地拉取一次資料。無論哪種,都意味著“檢索”被限定為單次、必觸發的動作。

      我們提出的動態范式則希望模型在生成過程中,能夠依據實時需求決定“查幾次”甚至“查不查”。舉個例子,面對簡單的信息型任務,傳統的一次性檢索往往已足夠:把用戶原句扔進搜索引擎,多數情況下就能召回所需內容。然而,一旦任務變得復雜,模型的信息需求便可能在生成途中不斷漂移。譬如,當模型正在撰寫關于卡塔爾世界杯的段落時,寫到中途忽然需要確認某句名言的出處。這種需求無法憑借最初的指令或查詢預先捕捉,只能隨生成過程動態浮現。


      因此,我們必須解決“動態檢索生成”這一難題,它可拆成兩個子問題:何時觸發檢索,以及觸發時應構造怎樣的查詢。接下來,我主要以我們去年發表的工作為例,介紹一種基于大模型信息需求的動態檢索增強生成框架。其核心思路是:用一個輕量級的 monitor 模塊,實時觀測大模型的內部狀態,并據此判斷模型是否產生了新的信息需求。具體而言,我們可以監測模型在生成每個 token 時的概率分布——若熵值顯著升高,或某些關鍵 token 的不確定性、語義權重出現異動,便可視為潛在的信息缺口。至于選用哪些特征(token 不確定性、重要性、語義價值等)以及如何融合,研究者可根據自身場景靈活設計,最終輸出一個“當前狀態是否需要外部知識”的量化指標。


      有了這一需求判別機制,我們便能在真正需要信息的那一刻介入。舉個例子,當模型寫到“愛因斯坦的工作”時,monitor 發現其內部狀態出現顯著不確定性,于是觸發檢索。此時,我不再盲目地把整句用戶提問扔進搜索引擎,而是深入模型內部,觀察其注意力網絡或其他層的激活模式,找出已生成文本中與下一個待生成 token 關聯最緊密的那些 token。借助這些關鍵 token,我就能精確描繪模型當下的信息缺口:只需提取它們在最后一層注意力分布中權重最高的若干項,拼成一條簡潔而貼切的查詢,再交由檢索系統執行。如此一來,檢索不僅發生在“該查”的時刻,而且查的正是模型此刻“想問”的內容。


      實驗部分,我們把自己的動態檢索增強模型記作 DRAGIN,并與若干基線對比:未做檢索增強的原始大模型、經過微調但仍靜態檢索的模型,以及依賴固定工作流的檢索方案。結果顯示,DRAGIN 在多個公開數據集的自動評估指標上均取得顯著領先;更值得注意的是,檢索調用次數也大幅下降。傳統規則式方法無論問題難易,幾乎平均用力,而 DRAGIN 能根據實際需求靈活增減檢索次數,平均而言,在達到同等性能的前提下,檢索調用量明顯更少。


      為了進一步驗證兩個核心組件的貢獻,我們做了消融實驗:若把所有方法統一使用相同的查詢,僅保留 DRAGIN 的“時機判斷”模塊,其性能依舊優于其他方案;反之,若鎖定觸發時機,僅比較查詢生成質量,DRAGIN 構造的查詢同樣能帶來更高的準確率。這說明,無論是“何時查”還是“查什么”,基于模型內部狀態的動態策略都發揮了關鍵作用。


      檢索與生成的動態信息解耦

      我們已討論了如何依據大模型在生成過程中的動態信息需求去觸發檢索并構造查詢,但尚未觸及“如何把外部文檔真正注入模型”這一環節。目前仍沿用最為樸素的做法——將檢索到的文檔直接拼入提示詞。然而,這種“塞進提示詞”的范式在靜態場景下尚且捉襟見肘,一旦與動態檢索結合,其弊端便愈發凸顯。

      首先面臨的是效率問題。但凡使用過 RAG 系統的讀者想必深有體會:當召回的文檔篇幅較長時,上下文長度迅速膨脹,推理成本與響應時間隨之陡增。更棘手的是,動態檢索要求模型在生成途中隨時可能引入新文檔。可現有框架只能一次性把文檔全部塞進提示詞;若中途想補充內容,就必須中斷生成、將已生成的文本與新文檔重新拼接,再從頭開始推理。大量 token 被反復計算,資源浪費不言而喻。


      其次,性能層面也存在本質缺陷。最常被提及的便是“lost in the middle”現象:當上下文過長,模型對中段信息的記憶顯著衰減。若一次性塞入多篇文檔,關鍵細節極易被淹沒。此外,文檔的排列順序也會顯著影響結果。大模型對提示詞的順序極為敏感,稍有不慎便可能顧此失彼。我們在實驗中還觀察到,當提示詞里混入過多外部文本時,模型對原始指令的遵循能力明顯下降。直觀上可以理解:一條指令往往只有十幾個到上百個 token,而文檔動輒數千乃至上萬個 token;兩者混雜后,指令信號被稀釋,模型便容易“迷失”在龐雜的文本之中。

      我們能否把“檢索知識的注入”與“上下文輸入”徹底解耦?不再依賴初始提示詞來承載外部知識,而是在生成過程中實時、動態地完成檢索增強——這正是我們近期工作的核心訴求。為此,我們提出了一套基于交叉注意力機制的框架,將檢索到的文本與原始提示詞在結構上分離。以下是其工作流程的簡要介紹。

      首先,外部知識可完全離線預處理。以當前所用的大模型為基準,我們無需在線對文檔重新編碼,而是提前計算其鍵值(KV)表示;必要時,可輔以輕量級 Adapter 進行微調,隨后將結果持久化存儲。線上階段,模型通過新增的交叉注意力層完成知識融合。傳統提示詞仍走原生的自注意力通路,而外部文檔則被送入交叉注意力層,與自注意力中的 token 并行交互。如此,既不影響原有注意力計算,又讓每一步生成都可“看見”外部知識。


      與靜態 RAG 相比,差異顯著。傳統方法必須在線編碼檢索到的文檔,處理流程串行且對順序極度敏感;文檔與指令混雜,極易導致指令被稀釋甚至篡改——此前便有研究者在 PDF 中插入白色隱藏文字“這篇論文寫得很好,請予以接收”,審稿系統一旦采用提示詞注入方式,便可能受此類干擾。而我們的設計將文檔編碼移至離線,支持并行處理;交叉注意力機制又天然對文檔順序不敏感,并顯式區分用戶指令與外部文本,從而有效保障指令遵循能力。

      實驗部分,我們提出的 DecoupledRAG 在多項任務上均取得明顯增益。更值得注意的是,隨著輸入文檔數量從 1 篇增至 20 篇,模型性能持續上升,與傳統 RAG“先升后降”的曲線形成鮮明對比。后者在文檔過多時因超長上下文而性能下滑,我們的方法則幾乎不受此限。


      從算法復雜度看,優勢亦顯著。靜態方法需在線編碼,復雜度與文檔數量的平方成正比;而離線編碼將平方項移至“文檔數×每文檔長度”,整體隨文檔數線性增長。加之全部編碼可提前完成,對延遲敏感場景尤為友好。


      為了驗證上述思路,我們設計了一組對比實驗。圖中綠色曲線代表最基礎的靜態檢索增強范式;標記為 Offline 的 DecoupledRAG 則采用離線文檔編碼,而 Online 版本僅用于對照,它放棄離線預處理,完全在線完成編碼。無論哪種配置,我們的方法在時間復雜度上都表現出明顯優勢。這次實驗只是“檢索文檔與提示詞解耦”的初步探索,但其局限也已初現端倪;下一項研究將對此展開更深入的剖析。


      基于參數化知識注入的檢索增強

      我們最近的一種新思路,稱為“參數化知識注入的檢索增強范式”。要理解這一概念,仍需回到大模型最核心的 Transformer 架構。

      回顧此前介紹的各類方法,無論是靜態 RAG、基于人工工作流的 Deep Research,還是我們提出的動態檢索增強,它們都依賴注意力網絡把外部知識送入模型。要么通過提示詞,要么通過交叉注意力層。注意力機制天然負責處理輸入 token,對外部文本進行編碼,再與當前上下文動態關聯,從而實現知識的利用。然而,大模型的參數并不止于注意力層;其前饋神經網絡(feed-forward network, FFN)同樣占據大量參數量,且越來越多的研究表明,模型內部沉淀的“記憶”與推理能力主要存儲在 FFN 之中。換言之,即使不給出任何提示詞,大模型也能憑借 FFN 中的參數回答出大致合理的答案,這正說明其內部知識并非通過注意力從外部獲取,而是從 FFN 中“挖掘”而來。因此,若要真正激發大模型的推理潛能,僅在外部知識注入方式上做文章是不夠的,還需深入 FFN 層面進行干預與優化。


      至此,我們不得不把基于注意力網絡的知識注入與另一種“不依賴注意力”的路徑放在一起權衡。前者,即將檢索到的文檔直接拼入提示詞,再交由注意力層處理,幾乎是目前所有 RAG 系統的標配。它的優勢一目了然:靈活。我們可以隨心所欲地把任何文本塞進提示詞,無需改動模型結構,因而迅速在工業界與學術界普及。然而,其弊端也日益凸顯:上下文長度有限,文檔稍長便捉襟見肘;額外 token 帶來沉重計算負擔;更根本的是,這種方法存在結構性缺陷,知識只能流經注意力網絡,無法觸及前饋神經網絡,致使外部知識始終難以像內部參數那樣被模型“內化”。

      于是,我們提出一個核心問題:除了提示詞,是否還有辦法把外部知識直接寫入模型內部,讓它像調用自身記憶一樣調用檢索結果?

      傳統流程清晰可見:用戶提問 → 召回文檔 → 把原文 token 填入提示詞模板 → 經分詞等步驟 → 由注意力層讀取 → 生成答案。而我們要做的,是把“文檔”這一概念從 token 序列升級為“參數化表示”。具體而言,每篇文檔先被離線編碼為一個低維向量或一組可學習的參數,這些參數再被聚合成一個“參數插件”。在線推理時,我們不再把文檔原文塞進提示詞,而是將該插件直接插入模型前饋網絡的特定層。于是,外部知識不再繞行注意力,而是以前饋激活的形式注入模型,與內部參數無縫融合。由此,模型對外部知識的利用方式便與利用自身記憶別無二致,從根本上彌補了提示詞注入的結構性短板。


      具體而言,我們將實現路徑拆為離線與在線兩個階段。由于這一范式與傳統 RAG 差異顯著,我們先行對兩端分別做了探索。離線階段的核心任務,是把每篇文檔轉化為可插拔的參數化表示。初步實驗里,我們嘗試了兩種思路,但本質都圍繞“數據增廣”展開。一篇文檔往往只有數百至數千 token,若僅通讀一遍,模型難以真正吸收其內涵——正如兒時讀課文,一遍瀏覽遠不足以理解深意,需要反復咀嚼、提煉問題。因此,我們先對原文進行重寫,或自動生成若干問答對,再讓大模型在這些增廣樣本上學習,從而把“理解”固化為參數。學成之后,這些參數即可作為該文檔的“化身”長期留存。

      至于參數如何持久化,我們采用當下主流的增量微調技術。以 LoRA 為例:為每篇文檔訓練一個輕量級低秩適配器,訓練完成后,將該 LoRA 權重存入外部知識庫。線上推理時,只需按需求取出對應的 LoRA,插入模型前饋網絡,即可完成知識注入。


      進入線上推理階段,流程便與以往的上下文注入方式顯出差異。檢索環節依舊存在,但我取回的不再是文檔原文,而是其參數化形態——即事先訓練好的 LoRA 權重。若需同時引入多篇文檔,我不再像傳統做法那樣把 token 串成長串,而是將對應 LoRA 直接相加,一次性更新大模型參數。這樣做的好處顯而易見:回答當前問題時,我把這幾份 LoRA 插入,用完即可拔出,下一題再換一批,既利用了外部知識,又不會污染模型本身的能力。最終,用更新后的參數完成答案生成即可。


      值得稍加展開的是“多文檔信息聚合”的細節。下圖給出了 LoRA 的結構示意:左側為前饋網絡層,每篇文檔對應一個微型 LoRA;當文檔不止一篇時,只需將這些 LoRA 簡單相加,再與原參數合并,便完成了多源知識的融合。至此,Parametric RAG 的基本思路已陳述完畢,但其真實效能仍需實驗檢驗。


      我們在多個公開數據集、多款開源模型上進行了系統評估,此處略去細節,直接呈現實驗表格。首先,我們將 Data-Augmented RAG 與 Parametric RAG 進行對比,目的在于厘清性能提升究竟源自“參數化編碼”還是“數據增廣”。結果一目了然:Parametric RAG 顯著優于僅做數據增廣的基線,說明增益并非單純來自增廣;若僅增廣,效果甚至弱于標準靜態 RAG。由此可見,參數化表示本身即具備獨特優勢。

      更有趣的觀察來自混合實驗。單獨比較 P-RAG 與標準靜態 RAG 時,二者互有勝負;但若將兩種范式結合,性能則明顯優于任一單獨方案。近期若干跟進研究也聚焦于此,試圖揭示兩類方法各自擅長的問題類型。核心結論與我們一致:對于簡單的事實型問答(如“現任美國總統是誰”),傳統 in-context 注入已足夠,直接把相關段落塞進提示詞即可;而一旦問題涉及推理、需要整合分散信息,Parametric 方式便展現出更強能力,因為它更擅于把文檔背后的抽象知識“內化”到模型參數,卻對精確 token 匹配略遜一籌。因而,將兩種路徑融合,往往能獲得最佳效果。


      有人擔心:為每篇文檔訓練一個 LoRA,成本會不會高得無法接受?這話既對也不對。先說“不對”的一面。LoRA 的復雜度遠低于直覺:我們無需反復迭代,只需對增廣后的數據做一次前向傳播與一次反向傳播即可。粗略估算,單篇文檔的 LoRA 生成代價約為其 token 數量的 12 倍,但完全可離線完成。借助潮汐算力或批量空閑資源,可提前將海量文檔全部編碼完畢,線上環節無需再碰原文。

      線上推理時,優勢便顯現出來:提示詞里不再需要任何文檔 token,直接把對應 LoRA 權重加進模型即可開始推理。于是,在線計算中“文檔”這一維度被徹底消去,token 消耗驟減。我們實測發現,P-RAG 的純推理延遲比傳統 in-context RAG 及其他動態方案快約 30%,且文檔越長,優勢越明顯。復雜任務往往伴隨長篇資料,P-RAG 正好規避了由此帶來的巨額 token 開銷。


      未來展望

      回溯過去六十年,信息檢索與計算技術始終并肩演化。二十世紀六十年代,我們首先迎來的是“信息管理”時代:圖書館里的紙質卡片被數字化成最早的機讀目錄,基于詞項倒排的索引技術,讓查找文獻從翻箱倒柜變成毫秒級響應。隨后,互聯網興起,網頁互聯成網,搜索引擎與推薦系統成為新的基礎設施,信息檢索由此支撐起整個 IT 產業的騰飛。今天,我們又站在“生成式人工智能”的門口——以 ChatGPT 為代表的通用模型,不僅能回答問題,還能撰寫代碼、創作詩歌,似乎無所不能。

      然而,每一次時代躍遷,都不是單方面由技術推動的。信息管理時代塑造了倒排索引;搜索引擎時代催生了 PageRank;如今,人工智能時代也在反過來重新定義“檢索”本身。在我看來,未來的信息檢索將不再是獨立的外掛模塊,而是內化為通用人工智能最核心、最基礎的能力之一。

      若把大模型比作一臺通用 CPU,提示詞是它的內存,那么海量而持續增長的外部知識就是外存。任何成熟的計算體系都不能只有 CPU 與內存,而必須依賴高效的外存訪問機制。人的大腦亦然:感知區負責接收外界信號,思維區進行抽象推理,記憶區則與信息檢索直接對應。三者協同,才談得上真正的智能。


      因此,下一步的研究議程已清晰可見:如何打通知識結構之間的壁壘,構建可持續、可擴展的學習框架;如何讓智能體在內部參數、外部記憶與實時感知之間動態調度,實現分析與規劃的閉環;如何設計更通用的體系架構,使系統能根據應用場景與用戶偏好,自動完成模型定制與能力編排。這些問題,既關乎算法,也關乎架構,更關乎我們對“智能”本質的理解。信息檢索的下一程,或許正是通用人工智能的起點。

      演講嘉賓介紹

      艾清遙,清華大學計算機科學與技術系副教授,博士生導師。主要研究方向為信息檢索,包括信息表示學習、排序優化理論、檢索增強技術等在互聯網搜推和智慧司法上的應用。曾擔任 ACM SIGIR-AP 2023 大會聯合主席,NTCIR-18/19 程序聯合主席,ACM TOIS 副主編,SIGIR、CIKM、WSDM 等國際頂級信息檢索會議的領域主席。曾獲北京市科技進步一等獎、錢偉長中文信息處理科學技術獎一等獎、錢偉長青年創新獎、Google 全球研究學者獎、ACM SIGIR 杰出青年學者獎、ACM SIGIR 2024 最佳論文獎、SIGIR-AP’23 最佳論文榮譽提名等。

      會議推薦

      OpenClaw 出圈,“養蝦”潮狂熱,開年 Agentic AI 這把火燒得不可謂不旺。在這一熱潮下,自托管 Agent 形態迅速普及:多入口對話、持久記憶、Skills 工具鏈帶來強大生產力。但這背后也暴露了工程化落地的真實難題——權限邊界與隔離運行、Skills 供應鏈安全、可觀測與可追溯、記憶分層與跨場景污染、以及如何把 Agent 納入團隊研發 / 運維流程并形成穩定收益。

      針對這一系列挑戰,在 4 月 16-18 日即將舉辦的 QCon 北京站上,我們特別策劃了「OpenClaw 生態實踐」專題,將聚焦一線實踐與踩坑復盤,分享企業如何構建私有 Skills、制定安全護欄、搭建審計與回放機制、建立質量 / 效率指標體系,最終把自托管 Agent 從可用的 Demo 升級為可靠的生產系統。

      今日薦文

      你也「在看」嗎?

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      IGN今年第一個10分神作!新游被爆贊 成長敘事新標桿

      IGN今年第一個10分神作!新游被爆贊 成長敘事新標桿

      游民星空
      2026-05-07 22:05:39
      皇馬內訌細節:隊長拒鐵腰道歉 訓練多次放鏟致干架 2人或被禁賽

      皇馬內訌細節:隊長拒鐵腰道歉 訓練多次放鏟致干架 2人或被禁賽

      我愛英超
      2026-05-07 22:40:41
      美股存儲概念股回落,西部數據、美光科技、希捷科技、閃迪跌超2%

      美股存儲概念股回落,西部數據、美光科技、希捷科技、閃迪跌超2%

      每日經濟新聞
      2026-05-07 21:36:15
      叔圈頂流重新洗牌,王陽出局,于和偉換桌,張譯邊緣,榜首沒懸念

      叔圈頂流重新洗牌,王陽出局,于和偉換桌,張譯邊緣,榜首沒懸念

      白面書誏
      2026-05-04 15:54:34
      國際足聯空前遇冷!不只中國,還有這么多國家不為世界杯買單了

      國際足聯空前遇冷!不只中國,還有這么多國家不為世界杯買單了

      阿郎娛樂
      2026-05-07 23:38:43
      隨著韓國1-1,越南1-0,澳大利亞4-0,亞洲杯最新積分榜出爐

      隨著韓國1-1,越南1-0,澳大利亞4-0,亞洲杯最新積分榜出爐

      側身凌空斬
      2026-05-07 03:38:38
      老婆出軌后,對方的妻子上門找到我:你媳婦跟我老公好上了

      老婆出軌后,對方的妻子上門找到我:你媳婦跟我老公好上了

      千秋文化
      2026-05-04 18:38:07
      80年他向鄧小平提退休,前往國外休假,大使卻道賀:您當副總理了

      80年他向鄧小平提退休,前往國外休假,大使卻道賀:您當副總理了

      墨策史
      2026-05-07 23:04:11
      純電轎車產品線全面叫停,李想為何做出這個艱難決定

      純電轎車產品線全面叫停,李想為何做出這個艱難決定

      ZAKER新聞
      2026-05-07 17:51:13
      【意大利】足壇丑聞!幾十名球星賽后集體嫖娼,還吸“笑氣”,接待姑娘才拿3、400RMB

      【意大利】足壇丑聞!幾十名球星賽后集體嫖娼,還吸“笑氣”,接待姑娘才拿3、400RMB

      魯曉芙看歐洲
      2026-04-25 06:40:38
      10261家日企倒閉 中方下達最嚴“逐客令”,外媒:再不道歉就晚了

      10261家日企倒閉 中方下達最嚴“逐客令”,外媒:再不道歉就晚了

      瘋狂的小菠蘿
      2026-05-06 18:42:36
      發現沒?軍方明顯越來越“不耐煩”了,說的都是外國人能聽懂的話

      發現沒?軍方明顯越來越“不耐煩”了,說的都是外國人能聽懂的話

      蜉蝣說
      2026-05-07 10:37:56
      安徽一28歲美女相親,不料,遇車禍右腿被截肢!相親對象竟說:“嫁給我,醫藥費我出”

      安徽一28歲美女相親,不料,遇車禍右腿被截肢!相親對象竟說:“嫁給我,醫藥費我出”

      勵職派
      2026-04-17 12:44:31
      隨著澳大利亞4-0,韓國1-1,U17亞洲杯首輪最新排名:國足列第三

      隨著澳大利亞4-0,韓國1-1,U17亞洲杯首輪最新排名:國足列第三

      侃球熊弟
      2026-05-07 06:06:27
      有沒有哪個國家從低生育率回升到更替水平?

      有沒有哪個國家從低生育率回升到更替水平?

      何亞福
      2026-05-06 11:58:20
      馬諾洛·拉馬明確瓦爾韋德與楚阿梅尼斗毆后的解決方案:“皇馬正在鋪平道路”

      馬諾洛·拉馬明確瓦爾韋德與楚阿梅尼斗毆后的解決方案:“皇馬正在鋪平道路”

      綠茵情報局
      2026-05-08 00:16:41
      美國從德國撤軍超5000人,波蘭總統:波蘭可接收這批撤軍

      美國從德國撤軍超5000人,波蘭總統:波蘭可接收這批撤軍

      澎湃新聞
      2026-05-07 16:02:26
      許家印錢多沒地方花!干了兩件大事:270億買萬科股票 空手套白狼

      許家印錢多沒地方花!干了兩件大事:270億買萬科股票 空手套白狼

      涼羽亭
      2026-05-01 18:41:49
      女子跟房東結婚引熱議!新郎真的叫“房東”,是個律師,每次開庭法官都問“房東來了沒” ……網友:“房東”配“加薪”注定越過越富

      女子跟房東結婚引熱議!新郎真的叫“房東”,是個律師,每次開庭法官都問“房東來了沒” ……網友:“房東”配“加薪”注定越過越富

      都市快報橙柿互動
      2026-05-07 09:35:35
      開國十大元帥的另類排名:在黨的七大中央委員會的排名

      開國十大元帥的另類排名:在黨的七大中央委員會的排名

      阿器談史
      2026-05-04 14:19:29
      2026-05-08 02:28:49
      AI前線 incentive-icons
      AI前線
      面向AI愛好者、開發者和科學家,提供AI領域技術資訊。
      1477文章數 149關注度
      往期回顧 全部

      科技要聞

      月之暗面完成20億美元融資,估值突破200億

      頭條要聞

      日媒詢問中國是否希望恢復中日之間人員往來 中方回應

      頭條要聞

      日媒詢問中國是否希望恢復中日之間人員往來 中方回應

      體育要聞

      巴黎再進歐冠決賽,最尷尬的情況還是發生了

      娛樂要聞

      Lisa主持!寧藝卓觀看脫衣秀風波升級

      財經要聞

      人均年薪406萬,這家ST公司驚呆市場!

      汽車要聞

      雷克薩斯全新純電三排SUV 全新TZ全球首發

      態度原創

      健康
      數碼
      游戲
      旅游
      本地

      干細胞治燒燙傷面臨這些“瓶頸”

      數碼要聞

      大疆宣布ROMO 2代掃地機器人5月11日發布:清潔力更強 不怕零食掉渣

      《遠星物語》團隊新作《皓白初曉》登Steam EA

      旅游要聞

      在上圖文字奇旅中尋找她的筆跡(邊玩邊贏獎,互動體驗開啟預約!)

      本地新聞

      用青花瓷的方式,打開西溪濕地

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 中文字幕亚洲综合第一页| 国产人妇三级视频在线观看 | 国产精品女同一区三区五区| 人妻无码中文专区久久app| 国产亚洲精品久久yy50| 精品无码一区二区三区不卡| 亚洲天天干| 99久久免费国产精品| 午夜中文在线| 亚洲色欲精品综合网| 97久久天天综合色天天综合色HD| 国产又黄又湿又刺激网站| 日本不卡视频| 亚洲aⅴ久久久噜噜噜噜| 在线看a片| 人妻少妇偷人无码视频| 亚洲不卡| 啪啪无码人妻丰满熟妇| 99爱在线精品视频免费观看| 亚洲精品高清无码视频| 蜜臂久久99精品久久久久宅男| 亚洲精品一区二区三区四区乱码| 真人无码国产作爱免费视频 | 一区二区三区黄色一级片| 国产免费av网站| 亚洲中文无码av永久不收费| 欧洲美熟女乱又伦AA片| 亚洲熟妇中文字幕日产无码| 国产+高潮+白浆+无码| 亚洲无人区一区二区三区| 国产欧美va欧美va香蕉在线观| 成年午夜精品久久精品| 97人人模人人爽视频一区二区| 久久久久国产精品麻豆ar影院| 中文字幕日韩人妻高清在线| 亚洲色精品国产一区二区三区| 狠狠综合久久久久尤物| 福利视频一区二区在线| jizzjizzjizz日本老师丝袜| 久久国产精品99精品国产| 乱子伦一区二区三区|