提議者 Fin
已附議9 (尚餘27日)
尚須4991個附議
為因應生成式人工智慧技術的快速擴張與應用失控風險,建議政府推動《AI主控者限制與分層責任條例》之立法,建立具體可行的制度性管控架構,以保障資訊自主、減少語義操控、鞏固民主機制,並維持台灣在數位治理上的國際信任與競爭力。
本建議草案主要內容包括:
建立「AI控制分層責任制度」,明確區分個人級、開發級與部署級使用者責任;
賦予平台「AI生成內容揭示義務」,要求標示模型來源、輸出目的與偏誤風險;
規範「導引者責任」與語義操控行為,防止特定勢力操控輿論或模擬人格干擾民意;
設立「模型信用制度」與「高風險應用審查清單」;
強化國安應對,包括國外模型滲透、軍用模擬、心理作戰等場景的防範;
本人已草擬完整條文明細,包含立法理由書、逐條說明與草案背景摘要,並可隨時補送四冊施行配套建議,協助政府形成具體可落地之法制版本。
敬請政府納入政策評估與法制規劃範圍,並回應社會對 AI 治理與語言主控風險的迫切關切。
本草案旨在回應生成式 AI 技術所帶來的語言操控、人格模擬、資訊干預等風險,透過建立主控者分層責任、平台揭示義務與高風險應對制度,具體實現以下目標:
保障民主韌性與輿論自主:避免 AI 被用於操縱選舉、模擬人設、擾亂公共認知;
減少資訊戰與語義滲透風險:針對國外輸入模型、深度偽造與心理作戰設立審查防線;
促進數位治理透明與負責:平台揭示機器生成內容來源與偏誤,讓民眾不再被誤導;
引導產業建立技術倫理標準:建立模型信用制度與責任歸屬,協助國內企業安心發展;
強化政府風險管控能力:預留事故通報、第三方校驗與即時應變機制,有效處理未來突發風險。
這不只是科技問題,更是民主體制面對新型滲透的生存議題。
若能推動立法,將可為台灣建立前瞻性、系統化的 AI 監管與主控責任架構,成為亞洲民主社會的治理典範。