2025 年清朗行動升級背景下,大模型備案駁回率居高不下,其中第三方模型未備案已成為中小企業備案失敗的首要誘因之一。據行業統計,登記類備案中 15% 的駁回案例直接源于調用未備案的第三方模型,而自研模型備案中,使用未經安全審查的第三方基礎模型或算力資源的企業,幾乎 100% 被打回。重慶網信部門 2024 年通報的案例頗具代表性:“靈象智問 AI” 因使用未備案的境外開源模型提供服務,被責令立即關停,官網及社交賬號均已下架。
二、第三方模型的備案義務邊界
根據《生成式人工智能服務管理暫行辦法》,第三方模型的合規責任需根據使用場景界定:
- 必須備案場景:企業對第三方模型進行微調、添加訓練數據,使其具備輿論屬性或社會動員能力(如金融智能投顧模型),需作為主體完成備案,提交 160 + 項技術指標的評估報告。
- 登記備案場景:直接通過 API 調用第三方模型且無數據訓練行為(如智能客服),需完成登記,但前提是第三方模型已取得備案資質,否則登記無效。
- 絕對禁區:醫療、金融等敏感領域,嚴禁使用未備案的第三方模型,即使僅調用也需額外提交行業主管部門合規證明。
監管層對此明確表態:未備案的第三方模型如同 “合規黑洞”,其數據來源合法性、內容生成安全性均未經過審,主模型備案時若包含此類組件,將直接觸發供應鏈風險預警。
三、三重風險的傳導邏輯
- 合規溯源斷裂
未備案的第三方模型普遍無法提供完整的語料授權文件。某企業因使用境外未備案模型,其訓練數據中 10 億條文本未標注來源,被認定為 “涉嫌數據非法采集”,整批備案材料作廢。這種合規缺陷會直接傳導至主模型,導致審核人員無法追溯風險源頭。
- 安全防控失效
備案要求模型必須建立覆蓋 17 類風險的關鍵詞過濾機制(關鍵詞≥1 萬),但未備案的第三方模型往往缺失此類防護。“開山猴 AI 寫作” 因調用的第三方模型未設置政治敏感內容拒答機制,生成違規信息,不僅備案被駁回,還被處以行政警告并暫停服務 15 日。
- 責任界定模糊
當未備案的第三方模型引發侵權或安全事件時,主模型運營方需承擔全部責任。華為云案例顯示,某企業使用未驗證開源許可的第三方模型,生成內容與版權作品相似度達 35%,最終面臨法律追責與備案駁回的雙重打擊。
四、第三方模型的合規管控體系
(一)事前核查:筑牢準入防線
- 資質核驗:要求第三方提供國家網信辦備案編號,通過官方平臺查詢有效性(如 “人工智能治理平臺” 公示名單)。
- 風險評估:委托中科院計算所等權威機構,對第三方模型的語料合規性(抽檢 4000 條合格率≥96%)、生成安全性(1000 條測試合格率≥90%)進行專項評測。
- 協議約束:在 API 調用合同中明確 “第三方需持續提供備案更新證明”,違約則承擔全部損失。
(二)事中管控:動態風險攔截
- 建立第三方模型 “白名單”,僅允許接入百度文心一言、元法大模型等已備案的頭部模型;
- 部署 “安全墊片” 機制,在第三方模型輸出層增加二次過濾,關鍵詞庫覆蓋 31 類風險(含政治有害、隱私泄露);
- 每月開展對抗性測試,模擬提示詞注入攻擊,驗證第三方模型的風險抵御能力。
(三)事后補救:備案駁回的應對策略
若因第三方模型未備案被駁回,需分兩步操作:
- 立即終止與未備案第三方的合作,更換已備案模型;
- 向屬地網信辦提交《供應鏈合規整改報告》,附新第三方的備案證明、安全評估報告及數據隔離方案,部分試點地區(如浙江)可通過 “綠色通道” 縮短重審周期至 60 日。
五、從風險防控到價值創造
完成第三方模型的合規管控,不僅能規避備案駁回風險,更能享受政策激勵:北京對通過備案的企業獎勵 100 萬元,深圳提供最高 500 萬元算力補貼。頭部企業已率先實踐:某銀行通過登記接入備案的金融大模型,既滿足風控合規要求,又將服務上線周期從 6 個月壓縮至 30 天。
監管層釋放明確信號:2026 年起,未備案的第三方模型將被全面禁止接入商用系統,企業唯有提前構建合規的供應鏈體系,才能在 AI 賽道持續領跑。