https://ec.ltn.com.tw/article/breakingnews/4874587
黃仁勳質疑AI當前信賴度 提醒「幻覺」問題
2024/11/25 17:24
https://img.ltn.com.tw/Upload/business/page/800/2024/11/25/phpeOZp3r.jpg
輝達執行長黃仁勳在香港科技大學接受採訪時對人工智慧(AI)的現狀表示懷疑,他稱還
須數年時間才能擁有可信任的AI系統。(彭博)
吳孟峰/核稿編輯
〔財經頻道/綜合報導〕輝達執行長黃仁勳在香港科技大學接受採訪時對人工智慧(AI)
的現狀表示懷疑,他稱我們還須數年的時間才能擁有可信任的AI系統。
黃仁勳表示,今天的人工智慧並不總是可給出可靠答案,我們可能還需要幾年時間,才能
擁有一個可以在很大程度上信任的人工智慧系統。他說:「與此同時,我們必須不斷增加
我們的運算能力」。
黃仁勳也強調人工智慧中的「幻覺」(hallucination)問題。他稱,使用者不應該質疑
人工智慧的反應是「幻覺還是非幻覺」、「明智還是不明智」。他用「幻覺」來指涉人工
智慧給予虛假或虛構訊息的情況。
對於ChatGPT等高階語言模型來說,這一直是一個主要問題,儘管它們在過去幾年中,在
回應複雜查詢能力取得令人難以置信的進展。
OpenAI因人工智慧「幻覺」而面臨法律訴訟,人工智慧的幻覺問題已經引發法律糾紛。去
年,一名電台主持人在其ChatGPT模型對他提出虛假法律投訴後,該名媒體人起訴OpenAI
。這事件凸顯人工智慧缺陷對現實世界的影響,以及科技公司在使其可靠方面遇到的困難
。
黃仁勳也質疑,在為特定任務開發人工智慧模型之前在大型、多樣化的資料集上進行預訓
練的有效性。他認為這種方法不足以創造可靠的人工智慧系統。
黃仁勳的評論凸顯科技業正進行的關於如何改進大型語言模型(LLM),而不僅僅依賴大
量數據的爭論。