https://udn.com/news/story/7333/2428982
霍金北京演講:人工智慧可能是人類文明的終結者
2017-04-27 13:10 聯合報 記者郭玫君╱即時報導
著名物理學家史蒂芬‧霍金今在北京舉辦的全球移動互聯網大會上視訊演講。霍金重申,
人工智慧崛起要嘛是人類最好的事情,要嘛就是最糟糕的事情,人工智慧有可能是人類文
明史的終結。
他認為,人類需警惕人工智慧發展威脅。因為人工智慧一旦脫離束縛,以不斷加速的狀態
重新設計自身,人類由於受到漫長的生物進化的限制,將無法與之競爭,從而被取代。
以下澎湃新聞刊載的霍金演講簡要內容:
在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增
的變化,是人工智慧的崛起。簡單來說,我認為強大的人工智慧的崛起,要嘛是人類歷史
上最好的事,要嘛是最糟的。
我不得不說,是好是壞我們仍不確定。但我們應該竭盡所能,確保其未來發展對我們和我
們的環境有利。我們別無選擇。我認為人工智慧的發展,本身是一種存在著問題的趨勢,
而這些問題現在和將來必須解決。
人工智慧的研究與開發正迅速推進。也許我們所有人都應該暫停片刻,把我們的研究重複
從提升人工智慧能力,轉移到最大化人工智慧的社會效益上面。
我們無法知道我們將無限地得到人工智慧的幫助,還是被藐視並被邊緣化,或者很可能被
它毀滅。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,並迅速地消滅數以
百萬計的工作崗位。
人工智慧從原始形態不斷發展,並被證明非常有用,但我也在擔憂創造一個可以等同或超
越人類的事物所導致的結果:人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身。
人類由於受到漫長的生物進化的限制,無法與之競爭,將被取代。
這將給我們的經濟帶來極大的破壞。未來,人工智慧可以發展出自我意志,一個與我們衝
突的意志。儘管我對人類一貫持有樂觀的態度,但其他人認為,人類可以在相當長的時間
裡控制技術的發展,這樣我們就能看到人工智慧可以解決世界上大部分問題的潛力。但我
並不確定。
現在,關於人工智慧的研究正在迅速發展。這一研究可以從短期和長期來討論。一些短期
的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無
人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。
另一個擔憂在致命性智慧自主武器。他們是否該被禁止?如果是,那麼「自主」該如何精
確定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人
工智慧逐漸可以解讀大量監控資料引起的隱私和擔憂,以及如何管理因人工智慧取代工作
崗位帶來的經濟影響。
長期擔憂主要是人工智慧系統失控的潛在風險,隨著不遵循人類意願行事的超級智慧的崛
起,那個強大的系統威脅到人類。這樣錯位的結果是否有可能?如果是,這些情況是如何
出現的?我們應該投入什麼樣的研究,以便更好的理解和解決危險的超級智慧崛起的可能
性,或智慧爆發的出現?
也許在這種新技術革命的輔助下,我們可以解決一些工業化對自然界造成的損害。簡而言
之,人工智慧的成功有可能是人類文明史上最大的事件。但是人工智慧也有可能是人類文
明史的終結,除非我們學會如何避免危險。
我曾經說過,人工智慧的全方位發展可能招致人類的滅亡,比如最大化使用智慧性自主武
器。
今年早些時候,我和一些來自世界各國的科學家共同在聯合國會議上支持其對於核武器的
禁令。我們正在焦急的等待協商結果。目前,九個核大國可以控制大約一萬四千個核武器
,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農田,最可怕的危
害是誘發核冬天,火和煙霧會導致全球的小冰河期。
這一結果使全球糧食體系崩塌,末日般動盪,很可能導致大部分人死亡。我們作為科學家
,對核武器承擔著特殊的責任,因為正是科學家發明了它們,並發現它們的影響比最初預
想的更加可怕。
現階段,我對災難的探討可能驚嚇到了在座的各位。很抱歉。但是作為今天的與會者,重
要的是,你們要認清自己在影響當前技術的未來研發中的位置。我相信我們團結在一起,
來呼籲國際條約的支持或者簽署呈交給各國政府的公開信,科技領袖和科學家正極盡所能
避免不可控的人工智慧的崛起。