隨著生成式人工智能技術的商業化加速,大模型備案已成為企業合法開展業務的 “必修課”。在眾多備案駁回情形中,“使用未備案第三方模型” 占據了約 15% 的比例,成為僅次于材料撰寫問題的第二大駁回原因。這類駁回不僅延誤產品上線周期,更可能引發合規處罰風險。本文結合典型案例、政策依據及行業實踐,深度解析該類駁回的核心癥結與應對策略。
某科技公司基于境外開源大模型進行二次微調后,面向國內用戶推出智能文案生成工具,并提交大模型備案申請。審核過程中發現,其使用的境外基礎模型未完成境內備案,且企業無法提供該模型的合法授權文件及安全評估報告。同時,該公司在備案材料中未明確標注模型來源及備案狀態,違反了備案信息真實性要求。最終,屬地網信辦以 “使用未備案第三方基礎模型” 及 “材料信息不完整” 為由,作出直接駁回決定,要求企業更換合規基礎模型后重新申請。
某互聯網企業通過 API 調用某已備案大模型的生成能力,開發了面向公眾的智能客服產品。企業誤將該產品按 “大模型備案” 流程提交申請,未意識到僅調用第三方已備案模型且無自主訓練環節的產品應辦理 “大模型登記”。更關鍵的是,其調用的第三方模型雖已備案,但企業未在登記材料中提交模型授權協議及安全責任劃分文件,被認定為 “供應鏈安全管控缺失”,申請最終被駁回。
某 AI 創業公司基于某開源模型進行深度優化,新增行業專屬功能后推向市場。企業認為原開源模型已通過備案,自身無需再次備案,僅提交了算法變更說明。審核部門指出,深度微調后的模型已形成新的技術架構和服務能力,屬于需單獨備案的情形,且原開源模型的備案信息不能覆蓋二次開發后的產品。同時,企業無法提供微調過程中使用的新增語料合規證明,最終因 “未履行備案義務” 及 “數據合規缺陷” 雙重問題被駁回。
《生成式人工智能服務管理暫行辦法》第七條明確規定,生成式人工智能服務提供者應 “使用具有合法來源的數據和基礎模型”。第十七條進一步要求,提供具有輿論屬性或社會動員能力的生成式 AI 服務,需履行算法備案義務。這意味著第三方基礎模型作為服務的核心組件,其備案狀態直接關系到整體服務的合規性。
監管體系對不同類型的 AI 服務實行差異化管理:對于自主研發或深度微調的模型,需履行完整的 “大模型備案” 程序,提交包含 160 余項技術指標的《算法安全自評估報告》;對于僅調用第三方已備案模型的服務,需辦理 “大模型登記” 手續,提交簡化版材料及模型授權證明。若企業混淆二者邊界,或使用未備案模型開展服務,均會觸發審核駁回機制。
近年來監管部門日益重視 AI 供應鏈安全,要求企業對基礎模型、芯片、算力等關鍵環節進行合規審查。使用未備案第三方模型,會被認定為供應鏈安全管控失效,不僅影響備案進程,還可能根據《網絡安全法》等法規面臨警告、限期整改甚至暫停服務的處罰。
企業應建立第三方模型準入審核機制,優先選擇國家網信辦公示的已備案模型清單中的產品,并要求供應商提供完整的備案證明、授權協議及安全評估報告。對于開源模型,需嚴格核查其開源許可協議,確認商業使用權限,并補充完成境內備案手續。涉及境外模型的,需按規定完成安全評估及備案,嚴禁未經合規審查直接調用。
企業需根據服務性質精準判斷合規路徑:自主研發或深度微調且面向公眾提供服務的,必須完成大模型備案,準備包括語料合規證明、生成內容安全機制等在內的完整材料;僅調用第三方已備案模型且無自主訓練環節的,應辦理大模型登記,重點說明模型調用方式、安全管控措施及用戶數據保護方案。特殊行業如醫療、金融等,需遵守 “暫不開放備案、僅允許登記接入” 的監管要求,避免違規提交申請。
在備案材料準備方面,需確保《算法安全自評估報告》覆蓋模型架構、數據處理、安全措施等核心內容,避免出現邏輯矛盾或信息缺失。建立模型動態管理機制,對重大功能更新及時履行變更備案手續,每月開展安全測試并留存記錄。同時完善用戶數據管理,明確數據使用范圍,提供便捷的 “關閉數據訓練” 功能,滿足透明度要求。
針對中小企業普遍存在的材料撰寫能力不足問題,可尋求第三方合規服務機構的支持,精準把握地方監管要求差異。在提交申請前,可模擬監管測試流程,對模型生成內容的合規性、安全攔截機制的有效性進行預評估,提前排查供應鏈合規風險,降低駁回概率。