【作者】孫瑜晨(中國政法大學民商經濟法學院副教授)
【來源】北大法寶法學期刊庫《行政法學研究》2026年第3期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。
![]()
內容提要:規范人工智能的部門規章及學者建議稿的軟度測評、主題為人工智能治理的3706篇文獻的詞頻分析顯示,人工智能治理存在軟法依賴現象。環境風險、金融風險、壟斷風險等傳統風險的治理實踐警示:軟法主導的流動秩序無法控制“被規制風險”和“規制本身風險”。因為被規制者可能實施規制俘獲、標準劫持、倫理漂洗等,而規制者可能利用軟法空筐結構實施硬監管、濫用軟法產業工具逐底競爭等。盡管軟法依賴需要被修正,但絕不能矯枉過正而追求硬法全景統御,而是應建立硬法提供保障基本權和控制系統風險的框架秩序、軟法在圍欄內展其所長以提高治理系統適應性的均衡構造。具體路徑為:制定統一的人工智能法,并明確其底線法而非促進法的定位,建構與憲法價值對齊的基本原則體系,置入“人在環上”的硬性規則,以及完善覆蓋規制主體、市場主體、自我規制單元的梯度問責體系。
關鍵詞:人工智能;軟法;科技倫理;促進型法;基于原則的監管
目次
一、問題的提出
二、人工智能治理中軟法依賴的雙維考據
三、軟法依賴的發生學闡釋與缺陷分析
四、實現軟硬法均衡的人工智能立法邏輯
一
問題的提出
人工智能是浮士德的交易,既能帶來顛覆性創新,又蘊含風險。此利弊的共存導致很多國家同時進行著技術競爭和規則競爭。后一競爭體現出國別差異性:歐盟是硬法治理的典范,特朗普2.0時期的美國則奉行柔性監管。我國雖尚未制定綜合性人工智能法,但踐行小、快、靈的立法邏輯,出臺《生成式人工智能服務管理暫行辦法》(以下簡稱《生成式暫行辦法》)《互聯網信息服務深度合成管理規定》(以下簡稱《深度合成規定》)《人工智能生成合成內容標識辦法》(以下簡稱《內容標識辦法》)等,甚至一些要素性立法領先世界。然而,憑此仍不足以把我國歸入“積極規制型的強監管模式”。相反,本文認為在對科技創新一貫珍護的路徑依賴下,我國存在軟法依賴。
盡管軟法現象及理論已被越來越多的學者認可,但對軟法概念的界定卻莫衷一是。本文并不嘗試進入“定義叢林”,而是將軟法范疇分成“核心區+外圍帶”。有行為約束力且配置明確法律責任的規范為硬法,無任何法律責任規定、不依靠國家強制力但對行為人有約束力的規范屬于核心區軟法,這兩類規范相對穩定且共識程度相對較高。需要說明的是,不是所有“無法律責任”的規范都是軟法。因立法技術問題,法律中常常存在說明性條款、解釋性條款、職權劃分條款等無責任規范,但它們不具有對行為人的約束力(即無行為規范意義),進而不會涉及效力的硬軟評價,因此通常不是軟法理論關注的對象,亦不是本文研究對象。然而,在具有行為約束力的規范中,還需留意一些介于軟、硬法之間的灰色規范,本文稱其外圍帶軟法,其“無對應法律責任”的狀態可能是模糊、動態或暫時性的。隨著法律的適用、配套規定的完善、行政或司法解釋的補充抑或法院裁判的確認,其法律責任有可能得以明確進而重獲強制力。因此,外圍帶軟法是變動和不穩定的,也是最具爭議性的。本文將研究焦點主要置于核心區軟法,因為立法性規定中的軟法規范(如倡導、宣示性條款)、倫理規范、自律規范、技術規范等典型軟法是當下治理人工智能的重要力量。聚焦于此,足以剖析軟法依賴問題。糾纏于外圍帶的邊界問題,會阻礙軟法分析工具進一步適用。
不可否認,軟法在收集信息、探索試錯等方面有比較優勢,在環境風險、金融風險、衛生風險、競爭風險等治理實踐中得到廣泛應用,但其也存在實效赤字、執行無力、問責真空等缺陷。上述傳統風險的治理經驗也表明:硬法才能塑造底線秩序、保障基本法益及控制系統性風險,軟法“喧賓奪主”不僅無助于解決監管步調,反因監管留白和裁量恣意而讓軟法(soft law)淪為軟專制(soft despotism)。孫斯坦將風險分為“被規制的風險”和“附加性風險”(即規制本身引發的風險)。軟法在雙重維度上均可能失靈:既無法控制市場主體濫用技術霸權造成的算法歧視、虛假偽造、技術壟斷等風險,也無法應對政府主體選擇性執法、地方保護、監管競次等附屬性風險。下文首先對人工智能立法文本和學術文獻進行評估,嘗試證成軟法依賴現象已經形成,再剖析其潛存的負面效應,最后提出平衡方案。
二
人工智能治理中軟法依賴的雙維考據
美國亞利桑那州立大學古鐵雷斯等在全球范圍內確定了634個軟法項目,但主要聚集于社會性軟法之上。事實上,除了行使社會權力的組織會生產大量軟法(如《生成式人工智能行業自律倡議》),公權力主體在制定法中也注入了大量軟法,人工智能規章及其他立法性規定都成為軟法的“棲息所”。除了反思社會性軟法的泛化,下文將指出國家法中存在軟法依賴的證據,并在后文證明隱藏于“科層制陰影”的國家軟法洪流同樣具有危險性。
(一)立法中的軟法依賴
有論者初步統計,在國家立法的法律、法規和規章中,軟法條款占21.3%,這類簡單的統計雖較為直觀,但運用到人工智能立法之中并不容易。因為其很多法條處在軟法外圍帶,要么軟、硬法共存(如部分條文是硬法而部分是倡導規定),要么軟、硬法混淆(如適用前提含糊不清而不易明確法律責任)。并且,立法者對法律責任采用引致適用等策略性模糊技術,形成了“轉致迷宮”。除了《互聯網信息服務算法推薦管理規定》(以下簡稱《算法推薦規定》)第31條明確規定違反本規定的法律責任,《生成式暫行辦法》第21條和《深度合成規定》第22條要求依照有關法律、行政法規的規定予以處罰,《內容標識辦法》第13條還要求依照有關部門規章的規定予以處理。此時,不能僅因找不到本法責任就得出目標條款屬于軟法的結論,還需努力去“有關規定”中尋找能與之聯結的責任條款。比如,深度合成服務提供者違反《深度合成規定》第9條,向未進行真實身份信息認證的深度合成服務使用者提供信息發布服務的,有可能要承擔《中華人民共和國網絡安全法》(以下簡稱《網絡安全法》)第64條規定的法律責任。然而,由于“有關規定”曖昧不明,仍有不少條款的他法責任難以確定。例如,如果該提供者違反《深度合成規定》第10條未健全用于識別不良信息的特征庫,承擔何種責任就不是很明確。因此,“軟法條款占比”這類二分指標并不可靠,得出的結論也總是伴隨爭議。
有鑒于此,本文嘗試用人工智能立法的“軟度”這一加權指標。統計學上,如果對軟度、硬度這類抽象概念進行量化研究,需要編碼化處理。本文采取如下編碼規則:(1)編碼化只面向會對接受規整之人相關行為產生影響的有行為規范意義的法條,其決定一部法律是軟或硬的效力評價。有研究得出某部門法軟法占比超過70%的不合理結論,原因可能就在于把說明性條款、解釋性條款、職權劃分條款等非完全法條歸入軟法。(2)如果判斷某一法條具有“宣示性”“倡導性”“訓示性”或“反身性”特征且無法律責任規定,則賦值1,表征典型的核心區軟法。(3)如果是通過“法律懲罰裝置”禁止或命令特定行為且有明確法律責任的法條,則賦值0,表征硬法。(4)如果某一法條的法律責任確實難以被確定,抑或硬軟法夾雜(如《深度合成規定》第14條第1款為軟法,而第2款為硬法),則賦值0.5,表征介于軟、硬法之間的半軟法(即外圍帶軟法)。相比0或1的二分,0、0.5和1的有序賦值更能準確反映規范效力強度的復雜和動態性,還能對軟法的邊界、外圍帶的范圍等爭議進行模糊邏輯處理,以使后續量化分析成為可能。(5)不同法條乘以對應賦值并加總求和,再除以總的法條數,得出整部法律的軟度指數。經統計,規范人工智能的四部規章軟度為35.7%~52.1%。最為綜合的《生成式暫行辦法》軟度為52.1%,《內容標識辦法》《深度合成規定》《算法推薦規定》的軟度分別為35.7%、38.0%和35.7%。凝聚學界智慧的《人工智能法(學者建議稿)》和《人工智能示范法3.0》的軟度分別為45.8%和39.7%。
軟度指數不僅使法律的軟硬程度變得可統計描述,還能與其他風險立法進行橫向對比,以判斷人工智能立法是否“過軟”。基于下述理由,本文選取針對藥品、轉基因、環境等傳統風險的監管立法作為參照。第一,盡管人工智能風險有其特性,但與傳統風險也有如下共性:一是不可預測性。人工智能風險難以預測,但人類經歷的很多風險都是不易精算的。氣候變暖、轉基因等風險迄今仍遭一些技術精英否認,但并不妨礙監管決策,因為監管者在科學不確定性條件下處置風險已是常態。二是高傳遞性。判別式到生成式技術的躍遷大幅增強了人工智能風險的擴散率,但一些新冠病毒的基本再生系數R0高達18,短時間內曾引發系統性衛生風險,一次次擠兌危機說明金融流動性風險的傳播亦迅猛異常。三是不可追責性。吉登斯將風險分為規則性的外在風險與難以預測的人為風險(尤指科技帶來的風險),后者因人的主觀性嵌入、歸因的非線性等因素而出現過“歸責危機”。人工智能確實對問責體系帶來嚴峻挑戰,但恐怕不是前所未有的。第二,這些共性的存在意味著很多風險規制邏輯是可以通約的,如人工智能規章引入的標識制度就被“食品安全領域尤其是轉基因食品領域較多采用”。因此,人工智能立法和傳統風險立法具備了一定的可比性基礎。經統計,作為應對轉基因風險基礎法的《農業轉基因生物安全管理條例》軟度為3.7%,應對藥品風險的《中華人民共和國藥品管理法》軟度為9.0%,《中華人民共和國環境保護法》軟度為21.4%,《中華人民共和國生物安全法》軟度為18.8%。傳統風險立法3.7%~21.4%的軟度與人工智能立法35.7%~52.1%的軟度兩檔數值間有明顯差距,人工智能立法軟度的中位值(43.9%)幾乎是傳統風險立法(12.6%)的3.5倍,一定的爭議或誤差并不能動搖人工智能軟法依賴性更強的結論。
(二)文獻中的軟法依賴
軟法依賴不僅存在于立法之中,還體現在學術文獻中;前者是軟法依賴癥的表征,后者對軟法理論的偏向與辯護則是推因。本文以“人工智能治理”為檢索詞在中國知網數據庫檢索,對相關文獻進行篩選并剔除會議紀要等,最終確定3706篇文獻;再提取標題、關鍵詞和摘要作為數據源,使用文獻分析軟件CiteSpace進行詞頻分析。CiteSpace提取的關鍵詞是對文獻的研究主題及論點進行集中描述、高度概括的詞組,其頻數大小能反映研究的焦點。經分析,頻數排名前21的關鍵詞中多達10詞與軟法相關:數據治理(147次)、社會治理(127次)、倫理治理(69次)、技術治理(62次)、智能治理(57次)、數字治理(56次)、協同治理(50次)、算法治理(43次)、教育治理(36次)、敏捷治理(35次)。
上述10詞即代表10種治理模式,以“技術—方法”為基準可分為兩組。第一組是技術型治理模式(包括數據治理、技術治理、數字治理、智能治理、算法治理),其強調運用數據、算法、技術等,以“技”治“技”。無論運用大數據、算法技術抑或其他智能技術,都要求治理者保持較強的學習能力,依靠職業協會、技術企業、開源社區等知識單元形成技術規范、專業標準等來彌補自身的知識短缺,這決定了技術型治理“對軟法有著非常大的需求”。第二組是方法型治理模式(包括社會治理、協同治理、敏捷治理、教育治理、倫理治理),其強調用社會合作、多元協同、倫理教化、敏捷回應等方法,以“術”治“技”。諸方法的踐行同樣需要推動治理架構向強調合作、激勵、多中心的軟法范式轉變。以倫理治理為例,抽象性的倫理規范(如增進人類福祉、可控可信)只能靠行業標準、行為指南等軟法工具來落實,訴諸硬法可能會產生較高的執行成本,還可能對一些創新產生“寒蟬效應”。總之,技術型、方法型治理與軟法構成目標和手段的關系,追求這些治理范式必然會在手段選擇上更依賴軟法。
除了統計文獻詞頻,筆者也對文獻觀點進行粗略梳理,發現一些論者認為剛性立法應緩行,主張依靠反身法、制度試驗、行業自律、監管沙盒等軟法工具,這些“讓子彈繼續飛”的觀點可能也是軟法依賴的一種表現。在世界范圍內,一些國家顯現軟法偏好,比如2025年通過《人工智能相關技術研發及應用推進法》的日本較具代表性,可能也會對國內軟法支持論產生一定的強化效應。
三
軟法依賴的發生學闡釋與缺陷分析
軟法偏好并不是空穴來風,行政法學者早已指出軟法的優勢,包括制度變革的回應性、創制過程的協商性、制度安排的合意性、實施方式的溫和性等。人工智能治理中軟法更是憑借其獨特優勢嶄露頭角,但傳統治理也警示軟法依賴可能產生抵消其優勢的治理缺陷。
(一)軟法涌現的發生學機理
人工智能治理領域出現軟法依賴由來有自,經文獻梳理可總結出四點原因:
第一,彌補監管者理性不足。人工智能的涌現性、黑箱性、不可解釋性導致監管者想要追蹤人工智能科技前沿變得艱難。在涉及陡峭學習曲線且監管者尚未理解新興技術特性的情況下,貿然使用硬法,可能阻礙技術的探索與創新。軟法能利用公私合作、自律機制、制度試驗等方式克服信息困境,給監管者提供“從做中學”的機會。
第二,克服“監管步調”難題。面對預訓練語言模型的高度迭代,硬法易引發“箭射靶離”的實效難題。相較之下,制定程序便捷靈活、試錯成本較低的軟法能緊跟技術的演進并及時因應不同場景的治理需求,保持法律系統的彈性;同時,模糊性、描述性、協商性的規范語言能為新興技術和產業預留發展空間。
第三,形成多中心分布式治理結構。人工智能大模型具備極強的泛化能力,可以嵌入千行百業,導致風險無處不在,硬法的中心化邏輯可能不敷使用。而軟法將監管權社會化,形成多中心治理網絡。行業協會、企業組織、其他利益攸關者在軟法提供的溝通平臺上進行試驗、對話與合作,有助于消弭監管分歧并凝聚利益共識。
第四,促進人工智能產業發展。軟法能靈活因應產業調整需求,有降低交易成本、解決集體協調困境等優勢,進而促進產業發展。有學者主張人工智能立法應采促進型立場,要提高產業發展的比重,結果必然導致軟法增長。
(二)硬法缺位的功能性缺陷
事實上,上述諸優勢已在傳統風險治理中得到了展現進而促成不同類型的軟法依賴癥候,但也引發了一系列負面效應。盡管人工智能治理與傳統治理存在區別,但過往經驗仍有巨大參考價值,因為無論技術如何迭代,背后涉及的社會關系、法益平衡、權利保障等法認知是相對穩定的。龍衛球借用維特根斯坦提出的“繩索論”形容人工智能立法和傳統法律的關系,即每一截新繩索與前一截并不相同卻相互聯系著,呈“家族相似性”。我們應秉持此“聯系”思維,既要支持人工智能治理對傳統治理的正向價值萃取,也要警惕傳統治理因依賴軟法而產生的下述失靈。
第一,針對風險的規制本身就會造成損害,致使監管失靈。在風險社會,我們不僅要控制“被規制的風險”(如燒煤引發的空氣污染),還須應對“附屬性風險”,即規制本身(如相關行政管理措施)引發的風險。例如,環境治理領域有兩個特征:一是在缺少硬法約束的情況下,軟性的人工智能地方立法難以給予規制機關充分的環境執法依據和保障,規制機關可能陷入“規制失靈”困境,導致環境法律的實施出現選擇性和碎片化問題。二是在外部壓力機制下,規制機關可能采取不符合比例原則的規制措施,致使監管失度。過去一段時期,一些地方環保部門或采取以停代治的措施,要求生產企業關停廠房設備,在一定程度上影響了企業生產經營。因此,生態環境部曾專門制定《禁止環保“一刀切”工作意見》,防止一些地方要求企業集中停工停業停產。在軟法主導的秩序中,倘若發生工業機器人傷害工人、聊天機器人致人死亡(如美國Character. AI案)等事件,規制機關在缺乏硬法規定的情況下,就可能會因恐慌而采取不符合比例原則的措施。
第二,存在空筐結構的軟法并不能帶來多中心協作治理,反而可能產生讓資本或技術強勢者實施“軟專制”的扭曲激勵。互聯網金融風險的監管教訓值得參考。以金融抑制為特征的壓力型監管因阻礙創新而屢遭非議,于是面對“個人對個人網絡借貸”(P2P)這一新事物時,監管者選擇了以金融包容為特征的軟法路徑,當時十部委聯合發布的《關于促進互聯網金融健康發展的指導意見》中“絕大多數是宣示性意義濃烈的監管原則和倡導性條款”。在上位硬法缺位的環境中,行業協會開始爭奪規則話語權,試圖用“自律”推動“他律”,《小額信貸信息中介機構(P2P)行業自律公約(修訂版)》的公布即為標志之一。但在巨利誘惑下,一些網貸平臺鋌而走險甚至操縱龐氏騙局,輕觸式的軟法體系對此毫無辦法,最終“個人對個人網絡借貸”在運動式整治下退出歷史舞臺。軟法支持者期望通過民主過程形塑協調性秩序,但忽略了前提——先要為不同利益攸關者的平等地位和表達通路提供硬性的制度保障。在人工智能領域,因為消耗算力和能源的人工智能逐漸被數據寡頭壟斷,在硬法闕如的非對稱性賽博空間里,多中心協作可能只是烏托邦式構想。
因缺乏必要公眾和知情利益相關者而導致協作治理難以成功的現象被索洛-尼德曼稱為“公—私困境”,其在下述三類軟法中都有體現。一是人工智能行業自律規范。“行業參與者不可避免地會優先考慮自身利益,行業自律可能存在利益偏向”,導致自律規范難以形成協作治理格局;而且一些行業協會對大企業存在財務依附,通過自律規范驅逐僭越軟法的強勢企業可能面臨經濟阻礙。二是被技術企業家視為效率性治理工具的人工智能標準。由于不同攸關方的利益訴求得不到充分表達和考量,一些標準的普適性大打折扣。有學者直言:“相關標準組織在制定標準時通常依賴業界‘圈子’人脈進行內部討論……中小企業無法充分參與其中……”三是人工智能倫理規范。由于缺少有效的實施保障機制和外部監督機制,實踐中一些倫理規范成為大企業掩蓋技術歧視和剝削、轉移公眾關切、逃避公共責任及延遲實質性監管的漂洗工具。
第三,軟法有可能會弱化立法和司法體系內置的平衡機制。在立法方面,硬法的制定過程要經過草案的公開征求意見、立法聽證會、專家咨詢等環節,這“恰恰為多元主體提供了一個制度化的溝通、博弈與協商平臺”。不同主體的多樣性利益訴求能得到充分議論,少數利益、代際利益等都能被認真考量。但是,人工智能軟法的生產過程缺少這種平衡機制,制定者通常不是立法機關,制定過程也欠缺公開性和可見性,普通公眾也難以參與一些具有專業壁壘的行業規范或標準規范的決策過程。這導致缺少外部約束的軟法有可能被夾雜行業利益、壟斷企業利益等,也容易陷入只重視短期利益而忽視長期利益的“阿瑪拉陷阱”。在司法方面,如果個體因人工智能開發者、提供者實施違反倫理規范等軟法的行為而受到損害,“民眾一般無法從司法渠道獲得有效救濟”,因為可訴性、原告資格、因果關系等方面可能會存在一定的障礙。再者,以“謝弗林原則”為代表的行政法尊重學說表明,在新興技術這一不確定領域,司法機關通常會尊重行政機關沒有明顯違反法律、非任意和反復無常的政策決斷,這意味著被規制者不易通過司法程序監督軟法性質的人工智能行政規定或決定。
第四,軟法依賴可能會引發國家間的逐底性規則競爭,進而可能造成全球人工智能治理的“公地悲劇”。當下,日本有可能在亞太地區掀起一場軟法競爭,其制定的《人工智能相關技術研發及應用推進法》未設置任何法律責任條款。日本總務省發布的《信息通信白皮書》承認日本在人工智能的研發和應用方面比較落后,指出2024年只有約26.7%的被調查者用過生成式人工智能,而中國被調查者的使用比例高達81.2%。這或許從一定側面部分解釋了為何日本比較徹底地轉向軟法一元論。但軟法主導模式會導致監管缺失引發的算法歧視、數據泄露、深度偽造、認知操縱等風險通過網絡空間向其他國家轉嫁,最終可能導致全球人工智能治理秩序的碎片化。與日本不同的是,我國是一個人工智能高滲透率國家,人工智能不再是一種行業級技術,而是融入經濟社會秩序末梢的技術基座,整個社會所面臨的人工智能風險的規模性和廣泛性是低滲透率國家難以比擬的。這要求我國既需要運用軟法的適應性和靈活性推動技術進步和產業發展,又必須通過硬法為人工智能研發和應用劃定行為底線、保障公民基本權、為軟法提供“規范的規范性”。作為負責任大國,我國一貫堅持安全與發展并重的理念,可以利用世界人工智能合作組織等多邊機制輸出“軟法和硬法均衡、安全與發展統籌兼顧”的中國方案。
四
實現軟硬法均衡的人工智能立法邏輯
軟法依賴需要被修正,但絕不能矯枉過正而走向追求硬法統御、法網密布的另一極端,“以‘硬法’為引導和保障不代表忽視‘軟法’的優點和作用”。正確路向是:通過軟硬法配置邏輯的廓清以及具體規則的加減運動,形成軟度合理、軟硬均衡的人工智能規范體系。
(一)明確方向:制定軟硬法均衡的人工智能法
已有學者提出“分割而治”的軟硬法配置方案,即對技術開發者適用軟法,而對技術應用者適用硬法。但當開發者正在設計高危險性的人工智能模型時,及時啟用硬法能將風險止于未發;而下游應用場景千差萬別,無法用硬法事無巨細地指導應用者“何為最佳實踐”。相比二元思維,下文主張應劃分規范效力層級,堅持一種“綱舉目張”的配置邏輯。
1.實現軟硬法均衡需要統一立法
所謂“綱舉目張”指硬法為綱、軟法為目。申言之,以硬法構筑人工智能法秩序的四梁八柱,提供有明確紅線的規范環境;軟法則在硬法圍欄內發揮先導、補缺、疏導、填充、試驗等功能,其權變裁量和利益平衡亦是在硬法約束下祛除恣意性的穩定過程。不過,為了長效性維持此綱舉目張的均衡結構,必須制定統一的人工智能法,因為要素法、場景法、模塊法等分散立法模式下該均衡很容易被打破。統一立法并不是追求“大而全”或“一刀切”,而是設置具有約束性、確定性的法律原則及具體規則,明確公、私行為體的權義配置及問責機制,搭建穩定、剛性的元治理框架。既要為包括軟法在內的其他規范提供權威基點和效力支撐,也要避免因上位硬法缺失而導致軟法“野蠻生長”。
傳統治理的經驗也警示防治系統性風險需要統一立法。分散立法可能存在“見樹不見林”的管道視野,無法實現風險全覆蓋;其產生的規則沖突及留下的監管真空都會滋生軟法,進而打破軟硬均衡。例如,我國依靠針對大氣、水體、固體廢物等要素的單行法來控制環境風險,但造成監管重疊或形成監管罅隙,導致一些地方政府選擇式執法、市場主體進行監管套利,更嚴峻的是無法控制不確定性系統性風險。我國制定生態環境法典的理由之一就是貫徹風險預防原則,以“應對諸如新污染物致害不確定、傳統污染物大尺度空間擴散傳輸可能導致的后果不確定等”。又如,我國對金融風險采用按照金融業別的分散式立法模式,留下的監管真空中依靠市場聲譽和同業壓力的金融軟法如雨后春筍般涌現,但都難以遏制頻發的風險事件。國家提出制定金融法,其中一個目標就是“實現金融活動監管全覆蓋”。
跨模態和跨域性的人工智能風險也是一種典型的系統性風險,同樣需要統一立法。當前的分散立法模式存在“立法層級不高、概念術語不一、規則交叉重疊甚至相互沖突以及監管空白等問題”,難以有效防范此類風險。有學者以電子商務為鑒,建議我國目前不應急于制定統一的人工智能法,因為《中華人民共和國電子商務法》(以下簡稱《電子商務法》)的前身是電子商務促進法,但立法程序啟動后,該法的定位逐漸由促進法變為監管性立法。然而,《電子商務法》正式施行后,我國電商市場規模持續大幅增長,還涌現社交電商、直播電商等創新模式,這一定程度上得益于統一立法對監管體系明確性的提升及對電商經營者主體責任的壓實等。電商風險是產業發展到一定階段才爆發的,可先觀望后立規;但人工智能從產生伊始就伴隨多重風險,對統一立法的需求更迫切。
2.堅持底線法定位才能維持均衡
盡管支持統一立法的觀點逐漸積累了一些共識,但對人工智能法定位的分歧依然顯著。產業法、促進法、創新法等定位可能導致軟法過剩,而風險法、監管法、安全法等定位可能擠壓軟法的空間,均不利于維持均衡。筆者認為人工智能統一立法應堅持既是基本法也是底線法的定位,才能實現軟硬法均衡。這歸因于底線法秉持如下標準:一是底線法主要保護的是不可克減的基本權益,調整的內容具有底層性,故底線法也是憲法秩序在人工智能領域的具體化。二是底線法應當具有一定的硬度,這不是說要全面接管日常秩序抑或設置大量懲罰性規定,而是體現為始終留有終局性、后置性手段(典型者如開關條款)以捍衛人的主體性。三是底線法具有謙抑性,追求的是較優、平衡、向善而不是最全、最嚴、最細,即通過劃紅線、設圍欄為其他規范提供框架性指引。四是底線法不是靜態法和封閉法,其能利用立法預測學、法律未來學、法律韌性理論等克服不學習特征,通過設置一般條款、落日條款、清單條款、授權條款等方式保持開放性。
兩部人工智能法專家建議稿都存在產業法色彩過重的問題,分別設置了“人工智能支持與促進”和“發展與促進”專章,推高了軟法占比。筆者認為可以嘗試弱化甚至放棄產業法或促進法定位、取消產業促進專章、降低產業條款比重,只保留個別提綱挈領的倡導條款以表明支持和發展人工智能的國家意志,發揮實定法的表達功能。例如,可規定“國家堅持人工智能安全和發展并重,鼓勵和支持人工智能基礎理論研究和關鍵技術創新,推進人工智能基礎設施建設,促進人工智能產業健康發展”。退一步說,即便未來人工智能法設置了產業法專章或引入一定數量離散化的產業條款,也很難承擔復雜產業調控和培育任務。因為無論是幼稚產業保護理論,抑或后發優勢理論都要求國家對人工智能產業布局、產業培育、產業調控等內容進行專門化、精細化立法。歐盟制定不含產業規范、監管先行的《人工智能法》后,于2025年發布促進產業、發展先行的《人工智能大陸行動計劃》(其中提出制定《云計算和人工智能發展法案》)。我國已出現一些地方性的人工智能產業規范,未來還可考慮制定全國層面的《人工智能促進法》,形成“人工智能基本法”引領“人工智能促進法”等多法的層級構造。此種底線法提供高層次指導、單行產業法規定內容細節的總分模式,可以有效降低基本法的軟度。這不僅不會阻礙產業發展,還能讓以后將蔚成規模的產業立法(尤其是地方性立法)接受底線法的調控、監督和審查,避免因地方保護主義、政府公司化競爭、破壞統一大市場等問題而落入人工智能產業發展中的“李斯特陷阱”。
(二)具體進路:“原則—規則—問責”逐級建構
統一立法應明確核心范疇、價值理念、法律關系、基本原則、規范體系、問責機制等內容。下文主要抓住“法律原則—具體規則—問責機制”這一核心脈絡,為實現人工智能法的軟硬均衡提供若干建議。
1.明確法律原則:與基本權價值對齊
一部法律的軟硬度與法律原則密切相關。明確和穩定的法律原則能為具體規則劃定剛性邊界并提供關于確定性的支援,而主觀和道德化的倫理原則可能會弱化或淡化法律的規范效力。面對或然性的人工智能,法律系統必須依靠“基于原則的監管”來守住底線,故建構剛性的法律原則是人工智能統一立法的關鍵任務。兩部專家建議稿都設有不少原則條款,可能在一定程度上移植或借鑒了《新一代人工智能治理原則》《新一代人工智能倫理規范》等軟法中的增進人類福祉、公平公正、可控可信、開放協作等原則。但這些倫理原則“基本是抽象的、模糊的”,難以用于法律實踐。對此,可搭建價值指引機制讓倫理原則實心化。那么,該去何處尋找這種指引呢?歐盟在《可信人工智能倫理指南》中給出了答案:基本權利為確定抽象的倫理和價值觀提供了最有希望的基礎。歐盟《人工智能法》序言第14a條提出的幾項原則均是基本權利的具體化,如人類主體和監督原則是《歐盟基本權利憲章》第1條人性尊嚴和第6條自由保護的具體化。可以說,除了“風險導向”,歐盟《人工智能法》還存在“基本權導向”。
這一線索值得重視,因為我國憲法中的基本權規范蘊藏著豐富的價值資源。盡管無法被法官直接適用,但將其外顯表達和內蘊價值注入人工智能法原則體系,就可以通過適用具體領域法的方式落實憲法秩序,用“憲法對齊”克服“人工智能錯位”(AI misalignment)。基本權教義還能為抽象性原則建立適用標準與方法,確保其外延被限制在基本權客觀價值范圍內,進而排除裁量恣意。遺憾的是,目前的法律原則建構方案“似乎對憲法確認的公民基本權利的保護問題很少直接提及”。實際上人工智能法基本原則的建構無需另起爐灶,而應將基本權作為其必須依照和遵循的價值資源庫。
例如,《中華人民共和國憲法》(以下簡稱《憲法》)中的人格尊嚴條款是人權保障的基礎,不少部門法都設置了人格尊嚴受法律保護或不得被侵犯的規定以貫徹憲法客觀價值(如《中華人民共和國民法典》第109條)。將人工智能法與人格尊嚴條款對齊的意義更為重大,因為人工智能(尤其是代理式人工智能)產生了“反客為主”的威脅。如果放任自流,那么人工智能將不再是知識論問題而是存在論問題,而人格尊嚴條款的價值原點就是保障人的主體性、強調人之價值的至上性。又如,《憲法》中的平等權規范包含豐富的價值要素,包括一般平等、實質平等、禁止歧視和逆向歧視等。將人工智能法與平等權對齊具有重要價值,因為信息收集和數據聚合存在的價值缺陷導致人工智能容易成為天然歧視系統,會重現甚至放大現實中的不平等。更棘手的是,一些人工智能歧視在統計和精算學意義上確實能提高效率進而具有表層合理性(如通過抽取過度的相關關系評價個人信用的人工智能模型可能更精準),但一旦違背了反弱勢者歧視、反性別歧視等平等權價值,則皆應被禁止。不得提出效率抗辯或者解釋為算法偏差、人工智能幻覺來逃避責任,因為基本權具有底線性和不可量化性。
綜上考慮,筆者提出如下與憲法基本權對齊的法律原則設計建議:
第一,人格尊嚴保障原則。開發、提供和使用人工智能應當以人為本、智能向善,不得侵犯人格尊嚴(價值淵源為人格尊嚴)。
第二,人類監督和控制原則。人工智能開發者、提供者應當確保人類始終有效監督和控制人工智能,保障個人的自主決策自由(價值淵源為人格尊嚴、精神自由)。
第三,平等原則。開發、提供和使用人工智能應當遵循平等原則,不得基于民族、性別、年齡、家庭、宗教信仰等事由實施不合理的區別對待(價值淵源為平等權)。
第四,隱私和個人信息保護原則。開發、提供和使用人工智能應當充分保障個人信息權益和通信自由,任何組織、個人不得利用人工智能技術從事侵害個人信息權益和通信自由的行為(價值淵源為人格尊嚴、通信自由)。
第五,勞動保障原則。國家應當積極應對人工智能對就業的影響,通過各種途徑創造勞動就業條件、進行就業培訓,保障公民的勞動權(價值淵源為社會經濟權)。
2.增設硬性條款:引入“人在環上”型規制
人類為應對未知風險積累了大量硬法工具,兩部人工智能法專家建議稿都有移植,包括披露、評估、報告、標識等規制工具。但不足之處在于:上述諸工具更注重讓“人在環中”(Human-in-the-Loop,HITL),缺少“人在環上”(Human-on-the-Loop,HOTL)的監督邏輯。“人在環中”型規制通過應用信息披露、標識、評估等工具讓人類能夠實時介入人工智能決策(如駕駛員對智能決策的實時調整),而“人在環上”則強調人類對系統整體的全局性監督和終局性控制(如對自動駕駛的遠程緊急制動)。引入以下“人在環上”型硬規范,能捍衛人類中心主義,也讓人工智能法與底線法地位相稱。
一是切斷開關條款。具有遞歸自我改進能力的人工智能有可能脫離人類控制而出現博斯特羅姆“回形針”思想實驗所隱喻的文明風險。《北京AI安全國際共識》明確提出禁止自主復制或改進型人工智能,對其設置切斷開關已獲得一定共識。實際上,“開關”這類“人在環上”工具并不是新事物,生物學者研究的防止合成病毒失控的“自殺基因”就是一例。除了具有遞歸改進能力的顯意識人工智能之外,筆者認為具有操縱性質的潛意識人工智能也應納入“開關”的控制范圍。因為前者通過破壞人類物理世界的方式威脅人的生存,而后者通過入侵大腦潛意識、操縱思想的方式破壞人類精神世界進而威脅人的存在。歐盟《人工智能法》就明確將搭載潛意識技術或操縱性質的人工智能列為不可接受的最高風險類別。不過開關條款的安全、有效運作不能僅寄望于簡單設置一個類似谷歌深度思維公司(DeepMind)提出的“紅色按鈕”,而是應當進行體系化設計,囊括探測和預警、多元利益主體評估和決策(判斷何時啟動)、多層次的開關執行機制(判斷關閉特定功能、單一模塊抑或直接熔斷整個系統)、風險解除后的恢復措施、外部審計和監督等規范內容。
二是風險管理條款。我國已建立了風險評估制度(如《算法推薦規定》第24條規定的算法自評估),這是“人在環中”型工具;即相關義務主體是“環中”的執行者,對算法歧視、安全風險、科技倫理等進行微觀審查。與之相對的是作為“人在環上”型工具的風險管理制度,其綜合應用包括測試、檢驗、備案、許可、認證等在內的規制工具箱,實現對相關風險的全生命周期管控,讓相關義務主體站在“環上”監控全流程。“風險評估”往往缺乏約束性,如《人工智能法(學者建議稿)》第42條允許人工智能開發者、提供者自行評估,本質上是一種軟法性質的反身法模式。而“風險管理”則綜合采用事前測試和驗證、事中監測、事后備案、具有法律后果的聲明或承諾、簽發強制性認證等一系列剛性規制工具。歐盟《人工智能法》就建立了被稱為“符合性評估”(conformity assessment)的風險管理制度,但其照搬套用了歐盟產品法的質量管理思路,可能只適用于產品類人工智能或作為產品組成部分的人工智能而對獨立人工智能系統無法通約,因為后者產生的侵犯人格尊嚴等基本權風險無法被轉化為可量化的產品風險。歐盟也意識到此問題,采取讓獨立人工智能系統提供者自我評估的策略,卻又造成對“涉及基本權風險的人工智能”之規制竟然比對“涉及產品風險的人工智能”之規制更寬松的顛倒現象。我國未來的統一立法應努力構建對產品和非產品類人工智能系統都能一體化適用、超越產品法思路的“人在環上”型風險管理機制。
三是冗余系統條款。當發生安全事件時,要求相關義務主體及時采取處置措施,是一種“人在環中”型規制;而要求一旦發生故障就會引發重大風險的關鍵設施的運營者在事前配置冗余系統,則是“人在環上”型規制。比如,極端天氣導致關鍵智能系統癱瘓,備用系統旋即啟動以避免更嚴重的次生損害,此即冗余原理。環中的處置措施可能因信息偏差、問責真空和監督不足而在執行上打折扣,但冗余義務是獨立于環的、客觀化的,甚至是系統運營的前置條件,故而難以被規避。為避免冗余條款成為一種針對中小企業的進入壁壘,人工智能法應明確此“人在環上”型規制只適用于具有關鍵設施屬性的人工智能,如嵌入金融或醫療系統的基礎大模型、浮點運算量或訓練成本超過一定閾值的高影響能力模型。在可行性方面,提高關鍵人工智能冗余能力的成本并不會太高,因為其研發成本高但邊際復制成本較低。未來技術的發展還可能允許開發者、提供者搭建針對不同功能、模塊或架構的精細化冗余,從而以更小成本提高系統整體的魯棒性。
3.強化法律問責:完善梯度問責機制
硬法的不在場導致現有人工智能規范正在創造“無責任空間”,這同時體現在對被規制主體的問責(向下問責)、對規制主體的問責(向上問責)以及對自我規制的問責(向內問責)三個方面。規制多元主義時代,不能把問責簡化為懲罰問題,而是應當通過一系列硬性制度安排明確不同角色主體為何負責、對誰負責、如何負責,從而克服烏爾里希·貝克所說的風險社會中“有組織的不負責任”難題。
在向下問責方面,《內容標識辦法》《深度合成規定》等過于依賴引致條款,但引致何種“有關規定”又曖昧不明。人工智能問責問題本就是涉及數據采集者、清洗者、標注者、供應者、算法設計者以及模型開發者、提供者等復雜主體的“多手問題”,引致適用模糊不清的他法責任而本法責任缺失的做法加大了問責難度。未來的統一立法應規定“行政責任一般條款”以明確本法責任,即明文規定違反本法規定的,由人工智能主管部門給予處罰(包括責令暫停相關功能或服務、限期整改、罰款、沒收違法所得、警告、信用減等、吊銷許可或證照等)。為實現軟硬法的貫通,還可以設置幅度罰款制(如上一年度營業額5%以下的罰款),將違法者是否遵守相關標準、自我規制體系是否健全、是否采取減少損失的措施、監管緩釋或承諾協議履行情況等納入處罰幅度的裁量因素中。除了行政責任外,具有場景信息優勢的侵權責任也應發揮風險分配功能。為適應行為人消失、因果鏈條斷裂、損害難以預測的風險社會,侵權法用嚴格責任積極管控超越微觀危險的社會化風險。此制度邏輯依然適配人工智能領域,引入嚴格責任實際等同于為高風險人工智能建立一種依托司法實施的強制保險制度,也與底線法定位相稱。一種擔憂認為,嚴格責任可能加重人工智能企業的負擔,尤其構成中小企業進入人工智能行業的“責任墻”。但嚴格責任的適用領域(主要針對完全自動駕駛L5級、具有傷害性的具身智能等異常危險源)、賠償范圍(主要針對物質性損害)等受到嚴格限制,不僅不會扼殺初始創新,還能鼓勵“負責任的創新”。對于高風險人工智能,具有巨大技術和信息優勢的提供者始終處在風險控制的最優位置,適用嚴格責任也符合最小成本預防者原則。
在向上問責方面,政府在人工智能治理中扮演著關鍵角色,完善對其問責的機制能夠有效防范兩類附屬性風險。一類是政府主體內嵌到人工智能技術鏈而成為提供者或使用者,并因違反安全保障、檢測、標識、備案、評估等強制性義務而引發損害的風險。此時政府主體與市場主體并無軒輊,都應為致害行為擔責。不同的是,前者適用行政處分等方式且主觀歸責門檻更低。例如,如果引發損害的行政決策由人工智能作出,即使行政機關無法預知和預測(即無過錯),也需要擔責。這是因為現代行政已從權威主義向辯護主義變遷,追求“最善選擇”的行政決策權不能讓渡給追求“最優選擇”、剝奪相對人對話權利的自動化決策系統。另一類是政府主體從外部干擾人工智能產業鏈而發生的官僚偏移、與民爭利、行政壟斷等風險。統一立法要確保能對破壞人工智能統一大市場、實施行政壟斷、違反公平競爭審查規定的行政主體進行有力問責。
在向內問責方面,兩部專家建議稿都用到大量自我規制工具(如要求人工智能開發者或提供者建立安全制度、制定基礎模型的使用規則等),但大企業劫持、集體協調困境、執行軟弱等因素會導致自我規制失靈。對此,可引入下列規則貫徹“元規制”理念,對自我規制進行規制。一是明確未建立或怠于建立自我規制體系或者未勤勉運營自我規制體系的法律責任。值得借鑒的立法模式是《中華人民共和國安全生產法》第101條,其明文規定對未建立事故隱患排查治理制度的生產經營單位予以處罰。福岡真之介亦指出,政府可以通過提供中間政策克服人工智能自主規制的不完善性,即鼓勵民間團體和企業制定和遵守自主規則,同時對不制定和遵守行為進行事后制裁。二是建立讓軟標準硬化的制度端口,包括違反特定人工智能標準就推定構成過錯、不遵守特定標準被認定違反商業道德、直接賦予通過審查的特定標準具有法律效力、政府采購或科研資助要求相關人工智能項目須符合特定標準等。三是采取如下舉措把“軟沙盒”變成“硬沙盒”:建立主動移除與被動退出相結合的出盒機制、沙盒測試進展定期公告、測試效果第三方評估等。
-向上滑動,查看完整目錄-
《行政法學研究》2026年第3期目錄
【數字法治】
1.人臉識別的雙軌治理與通向智能技術的治理適配框架
洪延青
2.邁向軟硬法均衡:人工智能治理中軟法依賴的隱憂及其應對
孫瑜晨
3.“刷臉”應用場景下個人信息保護影響評估的適用路徑
趙精武
4.自動化行政中算法決策致害的行政歸責路徑
張雨
【執法與監管】
5.制度型開放賦能金融監管現代化:以自貿區規則對接與路徑創新為視角
沈偉
6.數據跨境執法管轄權的規范沖突與制度協調
孫南翔
7.行政法上公共利益認定程序的反思與重構
——以土地征收成片開發為例
華子巖
【學術專論】
8.風險預防:檢察機關參與社會治理的范式轉型與履職邊界
秦前紅、李天雨
9.公私融合視角下個人信息處理同意的對價解釋
廖麗環
10.行政機關首次救濟的法治容許性
何宗靜、葉必豐
11.公平競爭權人在行政訴訟中的原告資格判定
張帥宇
【青年論壇】
12.自動駕駛汽車用戶隱私的公私合作保護
余俊達
13.論行政行為適用依據的復議審查
嚴于
《行政法學研究》創刊于1993年,是由中華人民共和國教育部主管、中國政法大學主辦、《行政法學研究》雜志社編輯出版的國內外公開發行的我國首家部門法學雜志。本刊自2015年變更為雙月刊,目前辟有專論、法律時評、行政法制比較研究、名家論壇、案例評議、行政復議與審判指導等常設欄目,為緊密配合國家行政立法、行政執法、行政復議、行政訴訟等實踐,本刊還不定期推出一些專題研究和觀點摘編。
點擊進入下方小程序
獲取專屬解決方案~
責任編輯 | 郭晴晴
審核人員 | 張文碩 王曉慧
本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.