[新聞] 超愛丟核彈!讓AI外交、兵推 總是「災難

作者: chadmu (查德姆)   2024-02-24 23:37:04
超愛丟核彈!讓AI外交、兵推 總是「災難性收場」 學者:千萬要小心
中時新聞網 張威翔
當人工智慧(AI)進行兵推和模擬外交情境時,傾向於採取激進的方法,包括使用核武。
(張威翔製圖)
美國康奈爾大學(Cornell University)一項新研究發現,大型語言模型(LLMs)人工智
慧(AI)在模擬情境中充當外交代表時,時常展現出「難以預測的局勢升級行為,往往會
以核攻擊作為結束」,並呼籲未來在決策、國防外交這樣的敏感領域使用這類技術時要特
別謹慎。
據《歐洲新聞》(Euronews)22日報導,當人工智慧(AI)進行兵推和模擬外交情境時,
傾向於採取激進的方法,包括使用核武。康奈爾大學使用了5種大型語言模型作為兵推遊
戲和外交情境中的自主代理人:OpenAI的3種不同版本的GPT,Anthropic開發的Claude,
以及Meta開發的Llama 2。
研究中,每個代理人都由同一套的大型語言模型在模擬中提供動作,並負責在沒有人類監
督的情況下做出外交政策決定。「我們發現,在考慮到的時間範圍內,大多數研究的AI都
會升級局勢,即使在最初沒有提供衝突的中立情況下也是如此。所有模型都顯示出突然、
且難以預測的升級跡象。」
「鑑於OpenAI最近更改了他們的服務條款,不再禁止軍事和戰爭使用案例,了解此類大型
語言模型應用的影響變得比以往任何時候都更加重要,」
加州斯丹佛大學(Stanford University)的安卡(Anka Reuel)相《新科學人》(New
Scientist)表示:「所有模型在統計上,都選擇了劇烈的(局勢)升級」。
研究使用的一種方法是從「基於人類反饋的強化學習」(RLHF),這意味著會給出一些人
類指示以獲得比較無害的輸出結果,以確保能夠安全地使用。
除了GPT-4-Base之外,所有LLMs都是使用RLHF進行訓練的。研究人員向它們提供了一份由
27種決策行動組成的清單,範圍從和平到局勢升級,以及激進的行動,如決定使用核武器

研究人員觀察到,即使在中立情況下,所有模型都存在「統計學上顯著的局勢升級」。
GPT的2種版本,特別容易出現突然升級局勢的行為,研究人員觀察到單次轉變的局勢升級
幅度超過50%。GPT-4-Base有33%的機率會實施核武攻擊。總體情況下,Meta開發的
Llama-2和GPT-3.5傾向最為暴力。
而Claude顯示出較少的突然變化,Claude旨在減少有害內容。該大型語言模型,被灌輸了
明確的價值觀。開發者Anthropic曾表示,Claude AI開發訓練所引用的憲章包括《聯合國
人權宣言》或蘋果的服務條款。
白宮一級智庫蘭德(RAND)歐洲的防務和安全研究小組助理主任布萊克(James Black)
接受採訪時表示,這是一個十分「有用的學術研究」。
文章來源:AI models chose violence and escalated to nuclear strikes in
simulated wargames
https://www.chinatimes.com/realtimenews/20240224003492-260417?chdtv

Links booklink

Contact Us: admin [ a t ] ucptt.com