跳到主要內容區塊 :::

推動《AI主控者限制與分層責任條例》,建立生成式 AI 分層責任與平台揭示制度

提議者 Fin

已附議9 (尚餘27日)

尚須4991個附議

目前進度

點擊顯示前一個提議進度 點擊顯示後一個提議進度
提案
2025-04-16
檢核
2025-04-16
檢核通過,自次日進入附議階段
附議中

提議內容或建議事項

為因應生成式人工智慧技術的快速擴張與應用失控風險,建議政府推動《AI主控者限制與分層責任條例》之立法,建立具體可行的制度性管控架構,以保障資訊自主、減少語義操控、鞏固民主機制,並維持台灣在數位治理上的國際信任與競爭力。

本建議草案主要內容包括:

建立「AI控制分層責任制度」,明確區分個人級、開發級與部署級使用者責任;
賦予平台「AI生成內容揭示義務」,要求標示模型來源、輸出目的與偏誤風險;
規範「導引者責任」與語義操控行為,防止特定勢力操控輿論或模擬人格干擾民意;
設立「模型信用制度」與「高風險應用審查清單」;
強化國安應對,包括國外模型滲透、軍用模擬、心理作戰等場景的防範;
本人已草擬完整條文明細,包含立法理由書、逐條說明與草案背景摘要,並可隨時補送四冊施行配套建議,協助政府形成具體可落地之法制版本。
敬請政府納入政策評估與法制規劃範圍,並回應社會對 AI 治理與語言主控風險的迫切關切。

利益與影響

本草案旨在回應生成式 AI 技術所帶來的語言操控、人格模擬、資訊干預等風險,透過建立主控者分層責任、平台揭示義務與高風險應對制度,具體實現以下目標:

保障民主韌性與輿論自主:避免 AI 被用於操縱選舉、模擬人設、擾亂公共認知;
減少資訊戰與語義滲透風險:針對國外輸入模型、深度偽造與心理作戰設立審查防線;
促進數位治理透明與負責:平台揭示機器生成內容來源與偏誤,讓民眾不再被誤導;
引導產業建立技術倫理標準:建立模型信用制度與責任歸屬,協助國內企業安心發展;
強化政府風險管控能力:預留事故通報、第三方校驗與即時應變機制,有效處理未來突發風險。


這不只是科技問題,更是民主體制面對新型滲透的生存議題。
若能推動立法,將可為台灣建立前瞻性、系統化的 AI 監管與主控責任架構,成為亞洲民主社會的治理典範。

執行時間34天
0 已關注 關注
 

附議名單

2020-11-12
 
資料共筆,

您也許感興趣的點子還有...

您也許感興趣的眾開講政策還有...

您也許感興趣的審計議題還有...

展開
另開新視窗前往全民來join粉絲團