生成式人工智能(AI)的算法備案是中國為規范 AI 技術應用、防范安全風險而建立的一項監管制度。該制度要求向境內公眾提供具有輿論屬性或社會動員能力的生成式 AI 服務的主體,需按照《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)及相關配套標準,履行算法安全評估、材料申報、公示等程序,以確保技術可控、內容合規。
法律基礎
備案制度的核心依據是 2023 年 8 月 15 日施行的《生成式人工智能服務管理暫行辦法》。該辦法明確要求,提供具有輿論屬性或社會動員能力的生成式 AI 服務(如聊天機器人、AI 寫作工具、圖像生成平臺等)需履行備案義務。
- 輿論屬性:指服務可能影響公眾認知或引發社會討論,例如新聞生成、社交媒體內容推薦。
- 社會動員能力:指服務可能組織或引導公眾行為,例如活動策劃、公益倡議工具。
豁免情形
- 非公眾服務:企業內部研發、未向公眾開放的 AI 模型無需備案。
- 低風險場景:如單純的數據處理工具、不涉及內容生成的技術研發。
核心材料
- 安全自評估報告:需覆蓋語料安全、模型安全、生成內容合規性等 31 項安全風險,包括人工抽檢、關鍵詞過濾、分類模型檢測等評估方法。
- 測試題集:需包含 2000 題以上的生成內容測試題庫(覆蓋 31 種風險)和 500 題以上的拒答測試題庫(覆蓋 17 種高風險場景)。
- 其他材料:模型服務協議、語料標注規則、關鍵詞攔截列表、供應鏈安全評估(如芯片國產化適配情況)。
材料差異
- 多模態產品:需提交多份測試題集(如文本生成和圖像生成分別準備)。
- 地區要求:部分省份(如浙江、河北)要求紙質材料掃描,北京、上海則接受電子提交。
屬地管理
- 備案主體需向注冊地省級網信辦提交材料,例如浙江省企業向浙江省委網信辦申報。
- 國家網信辦負責全國統籌,地方網信辦協同審核。
審核流程
- 初審:材料完整性審查(約 7 個工作日)。
- 技術評估:對模型安全性、內容合規性進行測試(約 30-60 個工作日)。
- 公示:通過審核的企業信息在 “網信辦” 公眾號或官網公示。
備案編號
企業需在產品顯著位置(如官網首頁、APP 啟動頁)標注備案號,例如 “京 AI 備 XXXX 號”。
持續監管
- 定期抽查:監管部門每年對備案企業進行 1-2 次抽檢,重點核查生成內容合規性、數據安全措施。
- 動態更新:模型迭代或服務范圍擴大需重新備案。
內容安全
- 防止生成虛假信息、暴力色情、民族歧視等違法內容。
- 要求企業建立關鍵詞攔截庫(至少 10000 個關鍵詞),并每周更新。
數據合規
- 訓練數據需來源合法,涉及個人信息需取得用戶同意。
- 數據標注需制定明確規則,標注人員需接受法律培訓。
技術可控
- 模型需具備可解釋性,例如公開算法原理、訓練數據來源摘要。
- 硬件供應鏈需評估安全風險,鼓勵使用國產芯片和開源框架。
行政處罰
- 警告、罰款(1 萬 - 10 萬元)、暫停服務。
- 案例:重慶 “靈象智問 AI” 因未備案被關停,運營主體被約談。
民事責任
- 若生成內容導致侵權(如肖像權、名譽權),企業需承擔賠償責任。
- 案例:某 AI 寫作平臺因內容審核不嚴,被責令暫停服務 15 日。
刑事風險
- 涉及國家安全、恐怖主義等嚴重違法,可能追究刑事責任。
企業成本
- 時間成本:備案周期通常為 3-6 個月,復雜模型可能延長至 1 年。
- 經濟成本:安全評估、法律咨詢等費用約 50 萬 - 200 萬元,中小型企業壓力較大。
區域分布
- 截至 2024 年底,全國 302 款生成式 AI 服務完成備案,80% 集中在北京、上海、廣東。
- 典型案例:百度 “文心一言”、阿里 “通義千問”、人民中科 “白澤” 大模型均已通過備案。
國際對比
- 與歐盟《人工智能法案》的 “高風險 AI” 強制認證類似,但中國更強調屬地管理和動態監管。
提前規劃
- 上線前 6 個月啟動備案準備,預留充足時間處理材料和技術整改。
技術合規
- 建立內容過濾系統,確保生成內容抽樣合格率≥90%。
- 定期更新測試題庫,覆蓋最新安全風險。
法律支持
- 聘請專業律師審核數據來源、用戶協議,避免知識產權糾紛。
動態跟蹤
- 關注地方網信辦政策更新,例如湖南省將備案周期壓縮至 60 個工作日。