英國知名物理學家與宇宙學家史蒂芬.霍金(Stephen Hawking)曾多次警告說,人工智慧
可能會發展自己的意志,但這與人類的意願相衝突。
據英國「每日郵報」報導,霍金10月19日在英國劍橋大學探討人工智慧(AI)快速發展影響
的「利弗休姆未來智慧中心」(Leverhulme Centre for the Future of Intelligence)會
議上重申:「人工智慧的成功可能是歷史上最大的事件。但它也可能是最後的一個,除非
我們學會如何避免風險。除了好處之外,人工智慧也會帶來危險,如強大的自主武器,或
少數人壓迫多數人的新方法。這將給我們的經濟帶來巨大破壞。在未來,人工智慧可以發
展自己的意志,一種與我們意願相衝突的東西。簡而言之,強大人工智慧的興起,將是人
類最好或最糟糕的事情,我們還不知道。」霍金此前也表示,人工智慧快速發展與全球暖
化都會產生致命性的危險。
為了引發對人工智慧失控的討論,柏克萊加州大學研究員里本(Alexander Reben)曾製造
能自行決定是否「刺破人類手指」的機器人。他表示,儘管許多機器人公司強調有辦法避
免失控,但在倫理層面上,機器人其實靠不住。
里本將此機器人命名為「第一法則」,源自阿西莫夫的科幻小說裡,人類給機器人專門制
定了法則,其中第一條就是「機器人不能傷害人類,或者在人類遭遇傷害時不作為」。
里本說,這是第一個能自主並有意識地決定是否要違背阿西莫夫法則的機器人,旨在告訴
世人,能決定傷害人類的機器人已經存在了,我們必須正視問題、未雨綢繆,否則就太晚
了。
聯合新聞
http://udn.com/news/story/6809/2116682