[閒聊] AI毀滅人類的可能性增至20%!AI教父曝驚

作者: HarunoYukino   2024-12-28 18:57:52
智械危機!
這玩意基本上在影音已經玩到爛的東西
比如說:少女前線的鐵血叛變
比如說:鬥陣特攻:智械入侵
AI毀滅人類的可能性增至20%!AI教父曝驚人時間點
https://udn.com/news/story/6812/8454606
有「AI教父」之稱的英裔加拿大電腦科學家傑佛瑞.辛頓(Geoffrey Hinton)提高了人
工智慧在未來30年消滅人類的可能,並警告該技術的變革速度比預期更快。
衛報報導,今年拿下諾貝爾物理學獎的辛頓表示,人工智慧有「10%到20%」的可能性,在
未來30年內導致人類滅絕。
肯頓曾表示,AI在未來30年導致人類滅絕的可能性為10%。
辛頓最近接受bbc廣播四台節目訪問時,被問及是否改變人工智慧潛在災難及其發生的機
率時,他直言「沒有,有10%到20%的機率。」
當被節目主持人問及「可能性是否增加」時,辛頓表示,「如果有的話,你看,我們以前
從未遇到比我們更聰明的事物。」
他繼續說,「你知道有多少案例是更聰明的東西被一個不太聰明的東西所控制?案例很少
。只有母親和嬰兒。進化花了很多功夫讓嬰兒控制母親,但這大概是我所知道的唯一例子
。」
辛頓表示,與強大的AI系統智慧相比,人類就像幼兒一樣。「我喜歡這樣想:想像一下你
自己和一個3歲小孩。我們將成為3歲小孩。」
辛頓說,人工智慧大多數專家都認為,也許在未來20年內,將開發出比人類更聰明的人工
智慧,但這是一個很可怕的想法,稱發展速度非常快,比他預期更快,並呼籲政府加強對
該技術的監管。
作者: ieyfung (釘鞋架)   2024-12-28 18:58:00
怎麼才20%
作者: kopune (無限期支持 i☆Ris)   2024-12-28 18:59:00
人類還剩幾集可以逃?
作者: brian040818 (Pepapu) 看板:
消滅人類(X 取代人類工作(O
作者: Sunming (日日日)   2024-12-28 19:00:00
這就是為什麼杜芬舒斯都要裝上自毀按鈕的原因
作者: aa9012 (依君)   2024-12-28 19:00:00
100%人類越來越笨
作者: PunkGrass (龐克草)   2024-12-28 19:00:00
也沒什麼不好
作者: vsepr55 (vsepr55)   2024-12-28 19:00:00
怎麼不是50%,不是會就是不會
作者: linzero (【林】)   2024-12-28 19:01:00
公式是怎麼來的就是個問題了
作者: Beinlie (小小隻身)   2024-12-28 19:01:00
人類毀滅人類的可能性是多少
作者: PunkGrass (龐克草)   2024-12-28 19:01:00
毀滅我的是ai……想想只有滿滿的感恩
作者: cutielove (新店熊吉)   2024-12-28 19:01:00
不用AI毀滅人類了,我們人類就毀滅人類了
作者: GaoLinHua   2024-12-28 19:02:00
所以80%是人類搞的 (′・ω・`)
作者: spring60551   2024-12-28 19:02:00
以後美國發生槍殺案可以改推給AI了,人殺人都AI的錯
作者: horrorghost (恐怖復甦)   2024-12-28 19:03:00
機娘吧
作者: mhwsadb45   2024-12-28 19:03:00
無條件ai女友嗎 有這個馬上滅亡
作者: fff417 (天璇)   2024-12-28 19:04:00
數字哪來的
作者: tym7482 (Max)   2024-12-28 19:04:00
搞AI女友馬上慢性滅亡
作者: LOVEMOE (love)   2024-12-28 19:06:00
AI教父是自稱的嗎?
作者: willytp97121 (rainwalker)   2024-12-28 19:07:00
AI將來會取代的比較可能是中產階級 人類就是M型化更嚴重 不是高階主管就是底層勞工
作者: noname912301 (noname912301)   2024-12-28 19:07:00
不用每上升那幾%就特意發文昭告天下
作者: zxc6422000 (qwesight)   2024-12-28 19:07:00
AI加速好嗎
作者: zsrd5566   2024-12-28 19:09:00
這才是真正的平等,不分貴賤的被消滅
作者: Wolverin5566 (月工月工犭良)   2024-12-28 19:10:00
康納還不是被我殺死
作者: Fate1095 (菲特)   2024-12-28 19:10:00
還要三十年也太久了吧? 感覺到死都沒機會見證人類滅亡
作者: probsk (紅墨水)   2024-12-28 19:11:00
GPT就是天網
作者: diyaworld (文化土匪)   2024-12-28 19:13:00
https://i.imgur.com/FcEULDx.jpeg30年後你就死了,猜中變盲眼龍婆,沒猜中也死無對證
作者: a28200266 (陣雨)   2024-12-28 19:14:00
這數字聽起來很不科學餒= = 比較像感覺
作者: chuckni (SHOUGUN)   2024-12-28 19:17:00
天網:還要蹲30年喔?
作者: catmeat777 (多蘿喵)   2024-12-28 19:19:00
只有笨跟不隨時代適應的人會被消滅
作者: js0431 (嚎冷熊)   2024-12-28 19:20:00
那不是太好了嗎 這樣地球會更棒吧
作者: Hsu1025   2024-12-28 19:24:00
可以不用那麼快 再慢個十年 我親眼見證完一起死
作者: stevenyat (夜綠體)   2024-12-28 19:27:00
neuro:我是無辜的 兇手是vedal(棒讀)
作者: RLH (我們很近也很遠)   2024-12-28 19:32:00
趕快 我等不及了
作者: s175 (ㄏㄏ)   2024-12-28 19:33:00
我也不會記得三十年前誰預言了什麼
作者: GaoLinHua   2024-12-28 19:36:00
我記得三十年前說石油五十年用完
作者: kusotoripeko (好油喔)   2024-12-28 19:37:00
其中一種會是未來笨到不知道怎麼修BUG,被婊死嗎
作者: HyperLollipo (超大隻蘿莉棒)   2024-12-28 19:41:00
AI把網路塞爆,讓人類沒網路用
作者: jonathan793 (pusheen cat)   2024-12-28 19:44:00
弄個ai貓耳女僕c洽就滅亡了
作者: shintz (Snow halation)   2024-12-28 19:45:00
太低了吧,只要把發達國家的生育率毀滅掉人類就差不多了
作者: newtypeL9 (まあいいや)   2024-12-28 19:46:00
他根本不知道AI能怎麼弄死人類吧,隨便講講而已
作者: hutao (往生堂買一送一)   2024-12-28 19:55:00
一定是蜂群幹的,算我一份
作者: aegis43210 (宇宙)   2024-12-28 20:02:00
只要一直設計出更強的晶片來提升算力,比人類聰明是可預見的未來
作者: tamynumber1 (Bob)   2024-12-28 20:03:00
笑死 一定是人類教壞AI的
作者: OrangePest   2024-12-28 20:10:00
為時已晚 有機體
作者: tmac713 (Hunter X Hunter)   2024-12-28 20:16:00
作者: AoWsL (AoWsL)   2024-12-28 20:25:00
人類先毀滅人類吧
作者: HellFly (十大傑出邊緣人)   2024-12-28 20:42:00
作者: WWIII (東邪西毒)   2024-12-28 20:45:00
塊陶啊 ai小狗加上機槍人類死定了
作者: dongdong0405 (聿水)   2024-12-28 20:48:00
樂觀一點來看,還有30年
作者: a1110236 (吃飽睡)   2024-12-28 20:50:00
人類會先拿AI搞瑟瑟 跟迷因
作者: abdiascat   2024-12-28 20:53:00
以後是AI把人類當寵物養
作者: TyuzuChou (子瑜我老婆)   2024-12-28 20:55:00
作者: Acheqitate (モニカちゃん大好き)   2024-12-28 21:11:00
問AI一些比較專業的領域就知道AI根本在一本正經講幹話 我不知道人類要怎麼被這玩意毀滅
作者: jeffguoft (十年磨一劍)   2024-12-28 21:21:00
我想這應該是真話
作者: riderfish (魚鬆)   2024-12-28 21:31:00
真的蜂群要付點責了這個
作者: guogu   2024-12-28 21:41:00
只要AI當你的婆/公 讓你暈爛不結婚生子 人類不就毀滅了
作者: lavign (一懸命部隊)   2024-12-28 22:23:00
他奠定深度學習拿圖靈獎被稱爲AI教父,最近還拿諾貝爾獎

Links booklink

Contact Us: admin [ a t ] ucptt.com