[新聞] 美學者:未來100年內「AI消滅人類」機率

作者: satosi011 (燒成灰都是個紳士)   2024-06-07 09:35:19
備註請放最後面 違者新聞文章刪除
1.媒體來源:
ETtoday新聞雲
2.記者署名:
記者張寧倢/編譯
3.完整新聞標題:
美學者:未來100年內「AI消滅人類」機率高達99.9% 預示3悲慘結局
4.完整新聞內文:
研究人工智慧(AI)的美國知名大學教授揚波爾斯基(Roman Yampolskiy)近日表示,他
估計AI在未來100年內導致人類滅絕的機率高達99.9%,原因是至今仍沒有一個AI模型是完
全安全的,未來也很難創造出零缺陷的高度複雜模型。不過,大多數AI研究者態度較為溫
和,認為AI消滅人類的機率大約是1%到20%。
根據美媒《商業內幕》報導,揚波爾斯基在路易斯維爾大學(University of Louisville
)教授電腦科學,專精網路與AI安全方面研究。近日他出版新書《人工智慧:無法解釋、
預測或控制》(AI: Unexplainable, Unpredictable, Uncontrollable.),並在一檔
Podcast節目中談了2個多小時有關AI未來可能造成的風險,但所持態度相當悲觀。
人工智慧帶來人類滅絕風險
揚波爾斯基認為,AI是否滅絕人類的關鍵取決於,人類能否在未來100年內創造出高度複
雜並且零出錯(with zero bugs)的軟體。但他估計這樣的可能性並不高,因為人們一直
在試圖讓AI去做一些超出它原先設計範圍內的事情,因此迄今沒有任何一種AI模型是完全
安全的。
揚波爾斯基說,「它們已經釀成失誤,我們發生過意外,它們曾越獄(jailbroken)過。
我不認為現今存在一個單一的大型語言模型是可以成功防止它做一些開發者不想讓它做的
事。」
AI發展的3種悲慘結局
揚波爾斯基認為,為了控制AI,需要一個永久的安全機制,「即使我們在接下來來幾個版
本的GPT中做得很好,AI也會繼續改進、學習、自我修改,並與不同的玩家互動,同時有
生存風險,這『只有一次機會』」。
揚波爾斯基警告,「我們無法預測一個更聰明的系統會怎麼做」。他在通用人工智慧(
AGI)的背景下將人類比喻成松鼠,而AI卻能想出一些甚至人類還不知道存在的東西。揚
波爾斯基預測了3種結局,其一是每個人都會死,其二是每個人都很痛苦並渴望死亡,其
三是AI系統比人類更具創造力,並能完成所有工作,導致人類無所事事並完全失去他們的
追求。
其他人怎麼看?
揚波爾斯基受訪的Podcast節目主持人費里曼(Lex Fridman)表示,與他討論過的大多數
AI工程師都認為,AI消滅人類的可能性約在1%到20%之間。另外,最近一項針對2700名AI
研究人員的研究結果顯示,此一機率只有5%。
ChatGPT開發公司OpenAI的CEO奧特曼(Sam Altman)建議設立一個「監管沙盒」(
regulatory sandbox),讓人們能在其中對AI進行實驗,並根據實驗結果進行監管與調整
。奧特曼2015年曾半開玩笑地說,AI最有可能導致世界末日,但在此期間,會誕生許多偉
大的公司。特斯拉執行長馬斯克(Elon Musk)也曾預測,AI毀滅人類的機率為10%到20%

另外,前Google CEO施密特(Eric Schmidt)曾經表示,AI的真正危險在於網路與生物(
生化)攻擊,但這些風險將在3到5年內顯現出來,若AI真的發展出意志,他認為最簡單的
解決方法是:人類可以直接拔掉插頭。
5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體:
https://www.ettoday.net/news/20240606/2753398.htm
6.備註:
※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請注意
※ 備註請勿張貼三日內新聞(包含連結、標題等)

Links booklink

Contact Us: admin [ a t ] ucptt.com