國科會提出《人工智慧基本法》草案 建構AI發展規範與治理框架
原文網址:https://bit.ly/3Y4mHI9
原文:
近年來,人工智慧(AI)技術的快速發展為產業和社會帶來廣泛的經濟和社會效益,同時也
可能對個人或社會帶來新的風險和影響,歐美也陸續推出人工智慧相關法案。為因應這一
趨勢,國科會提出《人工智慧基本法》草案,旨在確立推動AI技術與應用發展的方向和作
法,並建構良善的運作環境。
這項法案的制定目的包括促進以人為本的AI研發與應用,維護國民生命、身體、健康、安
全及權利,提升國民生活福祉,維護國家文化價值及競爭力,並增進社會國家的永續發展
。草案中明確定義了人工智慧,並提出了七項基本原則,包括永續發展與福祉、人類自主
、隱私保護與資料治理、資安與安全、透明與可解釋、公平與不歧視,以及問責。
政府在草案中承諾積極推動AI研發、應用及基礎建設,並妥善規劃資源整體配置。這包括
提供相關產業補助、委託、出資、獎勵、輔導,或租稅、金融等財政優惠措施。同時,政
府也將致力於完善AI研發與應用的法規調適,以不妨礙新技術與服務提供為原則。
為促進AI技術創新與永續發展,各目的事業主管機關將建立或完備AI研發與應用服務的創
新實驗環境。政府還將以公私協力方式推動AI創新運用,並致力於推動AI相關的國際合作
,促進人才、技術及設施的國際交流與利用。
在人才培育方面,政府將持續推動各級學校、產業、社會及公務機關(構)的AI教育,以提
升國民的AI素養。同時,政府也將致力於避免AI應用造成國民生命、身體、自由或財產安
全、社會秩序、生態環境的損害,或出現利益衝突、偏差、歧視等問題。
草案中提出了AI風險分級框架的概念,由數位發展部參考國際標準或規範推動,各目的事
業主管機關可據此訂定其主管業務的風險分級規範。政府還將透過標準、規範或指引,提
升AI決策的可驗證性及人為可控性。
為建立AI應用的負責機制,政府將依風險分級推動相關標準、驗證、檢測、標記、揭露、
溯源或問責等機制,提升AI應用可信任度,並建立明確的責任歸屬與歸責條件。同時,草
案也強調了保障勞工權益、個人資料保護,以及提升資料利用性與國家文化價值的重要性
。
對於政府機關使用AI執行業務或提供服務,草案要求進行風險評估並規劃因應措施,以符
合基本原則。各機關還需根據業務性質訂定使用規範或內控管理機制。此外,政府將建立
資料開放、共享與再利用機制,提升AI使用資料的可利用性,並致力於提升資料品質與數
量。
最後,草案要求政府在法案施行後檢討及調整所主管的職掌、業務及法規,以落實法案目
的。在相關法規制定或修正前,由中央目的事業主管機關協同中央科技主管機關依本法規
定解釋、適用。
《人工智慧基本法》草案公告刊登於「公共政策網路參與平臺」,對於公告內容有任何意
見或修正建議者,可於公告後60日內陳述意見或洽詢「國家科學及技術委員會前瞻及應用
科技處」。
《人工智慧基本法》草案展現了政府積極推動AI發展的決心,同時也展現了對人權保障、
風險管理的重視。透過建立全面的法律框架,希望能夠在促進AI創新發展的同時,也能確
保AI技術的應用符合社會公義、尊重人權,並能有效管控潛在風險,進而實現AI技術與社
會發展的良性互動。