[新聞]「自主性武器」引發聯合國關注,AI學者呼籲立法限制
[來源]https://bit.ly/2qYHIDJ
[內容]
聯合國於2016年的傳統武器大會(Convention on Certain Conventional Weapons, CCW)
後,針對「致命的自主化武器系統」(Lethal Autonomous Weapons Systems ,LAWs)設立
了監管專家小組(Group of Governmental Experts ,GGE),並在今年(2018)四月9日至13
日於日內瓦招開了第二次大會。然而,就在大會前一周,多國的AI專家連署發起一份聲明
稿,指名對南韓科學技術院(KAIST)進行抵制。
今年二月,南韓科學技術院宣布將與南韓十大財團之一的韓華集團,旗下的防務公司韓華
系統(Hanwha Systems)共同建立一個研究中心,目標是「開發可應用於軍事武器的人工智
慧技術」,以達到「無須人為控制的偵測並消除目標」,這使世界各國的AI學者感到不安
。參與這次連署的學者說,他們將停止與南韓科學技術院的所有合作並拒絕接待該校的來
賓,直到該校承諾所研發的武器將會具有「合理的人為控制」。
這樣的不安並非毫無來由。南韓科學技術院是世界級的研究單位,其研究成果放眼世界仍
是表現亮眼,包含贏得2015年DARPA機器人挑戰賽的DRC-Hubo機器人。然而,韓華系統公
司是韓國最大的軍火商,其產品包括受到國際條約禁用的集束炸藥。
南韓科學技術院的校長申興哲表示,對於這次抵制他感到十分遺憾,並再次重申,KAIST
不會進行任何與人類尊嚴背道而馳的研究,包括不受控的自主性武器。在南韓科學技術院
做出承諾之後,抵制事件也告一個段落。
但「自主性武器」對未來的威脅卻仍然存在。若放任自主性武器的發展,便會加快戰爭的
速度與規模,更要承擔人工智慧「誤判」的風險。
本屆聯合國傳統武器大會,最大的目標便是訂定出限制「致命的自主性武器系統(Lethal
Autonomous Weapons Systems, LAWs)」的國際公約,因為相關法規的訂定速度已經大幅
落後現在技術的發展。然而,在會議上仍然沒有達成共識,而其中最主要的意見分歧是在
於「LAWs」的界定。
若針對「致命」這個部分來看,配有人工智慧的導彈攔截系統需不需要接受法規監管呢?
若是針對「自主性」,那現存的半自動無人機,算不算LAWs的規範範圍呢?所謂「合理的
人為控制」又該如何定義?對於這些議題的辯論仍未停止,也讓國際公約的約制共識更是
遙遙無期。