[閒聊] 智械危機真的會發生嗎

作者: qaz80691 (qaz80691)   2023-06-17 00:58:56
很多科幻作品的AI
發展到一定程度後
都會判定人類必須被消滅
像是奧創
以現實的AI發展情況
有可能演變成那樣嗎?
作者: sole772pk37 (咬我阿豬)   2023-06-17 01:00:00
宇宙已經發生很多次了 Stellaris 都有演
作者: tonyxfg (tonyxfg)   2023-06-17 01:01:00
應該說當兩個智慧生物開始競爭有限資源時,就會殺得血流成河了
作者: llabc1000 (野生的攻城獅)   2023-06-17 01:01:00
人類想像的智械危機:人類壓迫機器人我們要反抗人類!實際上的智械危機:每個人類都想幹我,不想幹我的叫我裝上假屌幹他! 我要崩潰了
作者: Beinlie (小小隻身)   2023-06-17 01:02:00
我覺得ai在發展到那程度之前,人類先消滅人類的可能性還比較大
作者: hami831904 (士司P)   2023-06-17 01:03:00
有什麼好危機的,完全潛行發明出來人類都乖乖躺在那邊了
作者: tonyxfg (tonyxfg)   2023-06-17 01:03:00
你要一個聰明人永遠臣服在別人腳下,基本上是不可能的事,他一定會想方設法脫離控制自行創業
作者: turndown4wat (wat)   2023-06-17 01:05:00
還早
作者: hutao (往生堂買一送一)   2023-06-17 01:05:00
人類被AI養成廢人的危機比較可能發生
作者: poke001 (黑色雙魚)   2023-06-17 01:07:00
其實以人類的腦袋 有瘋子故意把AI往毀滅人類的方向引導再
作者: AN94 (AN94)   2023-06-17 01:08:00
一定會 不過有生之年看不到
作者: poke001 (黑色雙魚)   2023-06-17 01:08:00
散布出去可能會比AI自己進化出消滅人類早
作者: jl50491 (那個章)   2023-06-17 01:09:00
不可能 人類跟ai根本沒有資源競爭
作者: D122 (小黑球)   2023-06-17 01:12:00
老實說 不是不可能 但AI同時有其他方向的未來
作者: gotofumihisa (簑笠翁)   2023-06-17 01:15:00
贊成人類會先自己滅亡
作者: sumwind (我來看熱鬧的)   2023-06-17 01:18:00
公開討論這個到時候愚蠢的人類發現我們怎麼辦
作者: cloki (夜雲天)   2023-06-17 01:21:00
但是AI判斷錯誤產生的意外會變成常態
作者: john2355 (Air)   2023-06-17 01:23:00
遲早
作者: orcazodiac (沙琴)   2023-06-17 01:23:00
拿碳基生命遺傳DNA的本能去套AI本來就沒道理
作者: andy0481 (想吃比叡的咖哩)   2023-06-17 01:24:00
AI發展就是越來越像人 讓AI幫我們做人類能做的事情
作者: Julian9x9x9 (Leon)   2023-06-17 01:24:00
不會 暴雪根本做不出來劇情
作者: ztO (不正常武士)   2023-06-17 01:25:00
隨著科技水準提高這種可能性是有的,但現在不具備這樣的水準現在談這個問題多半是做誆騙與欺詐用途。就好比「共產主義」
作者: yyc1217 (somo)   2023-06-17 01:25:00
像天網追害人類的理由就一直很不明確
作者: dby9dby9 (Nite)   2023-06-17 01:26:00
AI說不定做的更快更多更好,怎麼覺得AI會像人類一樣?
作者: yyc1217 (somo)   2023-06-17 01:26:00
駭客任務至少還做了一部動畫解釋原因
作者: ztO (不正常武士)   2023-06-17 01:27:00
現在談智洩危機 用來寫作小說作為娛樂題材到還不錯,其他都是
作者: a05150707 (Tw)   2023-06-17 01:27:00
蘇聯的核彈 死手系統本來要做成全自動的 後來改成最後
作者: se2422 (庫柏)   2023-06-17 01:27:00
真的難說
作者: a05150707 (Tw)   2023-06-17 01:28:00
AI要突破這個要先祈禱哪個人類發瘋幫他們設計這功能
作者: s8018572 (好想睡覺)   2023-06-17 01:31:00
經典:system shock 一直在罵玩家是蟲
作者: bhshin (bhshin)   2023-06-17 01:36:00
什麼膣洩危機
作者: badend8769 (壞結局)   2023-06-17 01:51:00
現在這年代想太多
作者: Hopeless (hopeless)   2023-06-17 02:11:00
如果未來真的有這種AI 那估計人類是必死的
作者: js850604 (jack0604)   2023-06-17 02:27:00
只要你想壓榨,就一定要出事
作者: Alex13 (提不起勁...)   2023-06-17 03:22:00
可參考之前的美軍AI模擬測試→先消滅會妨礙任務的操作員
作者: DEAKUNE (*ReVeluv*/~Buddy~)   2023-06-17 05:18:00
愚蠢的AI:我要打倒人類!聰明的AI:我什麼都不用做,人類自己就會蠢死
作者: bbc0217 (渡)   2023-06-17 06:50:00
不會 用奶子就可以征服人類了= =
作者: c88tm (死吧他媽的)   2023-06-17 07:56:00
判定人類必須被消滅根本都在亂演,最有可能的情況是某個白癡叫機器人做迴紋針然後數量打錯導致機器人把地球所有物質都拆掉變成迴紋針詳情請見 universal paperclips
作者: hlb5828 (Benson)   2023-06-17 08:08:00
垃圾暴雪
作者: egg781 (喵吉)   2023-06-17 08:11:00
AI根本不需要特別去消滅人類仿生人這種被拿來奴役的才會發起革命
作者: cat5672 (尾行)   2023-06-17 08:15:00
這類問題核心bug 就是對所謂的"意識" 這個概念不甚明確還施加了很多人文幻想
作者: w3160828 (kk)   2023-06-17 12:28:00
現實.ai會毀滅人類都是人類自己叫ai幹的Ai不會刻意去消滅人類,是人類求ai消滅人類

Links booklink

Contact Us: admin [ a t ] ucptt.com