Re: [問卦] 要發明什麼東西,人類文明才能大躍進?

作者: FenixShou (屁豪(我是蘿莉控))   2016-11-02 10:26:38
※ 引述《aalluubbaa (wenwenyenyen)》之銘言:
: 花了十幾年,終於有人工智慧成長成跟最笨的人類一樣,有一個人工智慧終於可以像
: 四歲小孩開始觀察世界,一小時內,它解決了相對論和量子力學的矛盾,一個半小時
: 後,這個人工智慧的智能超越正常人類的17萬倍
如果你說的只是學習能力,那很簡單,現在的阿法狗就能做到
關鍵在於自我意識,沒有人知道這東西是怎麼來的
你召集全世界最天才的程式學者研究十年,他們可能也不知道怎麼寫出自我意識
自我意識,還有生殖能力是目前生物學上最難解的謎
: 另一個同樣的類似問券也問了一堆AI專家,這次是問西元幾年前,AI可以跟人類智慧一樣
: 2030前: 42%
: 2050前: 25%
: 2100前: 20%
: 2100後: 10%
: 永遠不會:2%
請問「人類智慧的定義是甚麼」?學習能力?理性判斷?道德觀?還是就是自我意識?
: 這只是跟人類智能一樣的AI,那回到超級AI,多久會從人類智慧變成超級AI,平均值
: 約20年,所以2040+20=2060,就算是2060,也只差40年。
: 超級AI出現的那個時間,有個英文叫做singularity。應該有點類似審判日,因為假設一
: 開始的參數沒設定好,這個AI只是聰明,並沒有擁有跟我們一樣的價值觀,地球上的生命
: 可能瞬間消失,如果他跟我們有類似的價值觀,那恭喜大家,這個AI將跟神沒有兩樣。
: 超級AI是人類所創造的最後一樣發明,而這些預測都是AI領域裡專家的預測,其實想想
: 蠻恐怖的,因為大家還覺得Elon Musk、Stephen Hawking呼籲大家小心發展AI,因為當
: 你一旦搞砸了,就回不去了,因為高智能者永遠是贏家。
: 可是感覺大家沒有把這件事情認真看待,我是覺得蠻奇怪的,全世界最聰明的幾個人都
: ㄘㄨㄚˋ著等,大家還只管一些剩下其他芝麻蒜皮的小事,當初不限制核武最後大家才
: 知道造出那麼可怕的武器,核武你做出來比不發射就部會死人,超級AI一旦出現了,你
: 根本不可能把它殺掉...
: 希望有生之年出現的是神,不是失控的AI
如果AI沒有自我意識,那根本就不用怕,因為他會依照工程師給的規則下去跑
功能再強大也只是一套軟體
如果AI有自我意識,那才是可怕的開始,他會開始思索,會反抗,會打破規則
但關鍵仍然是「人類有沒有辦法用程式寫出自我意識」
作者: wemee (方天畫)   2016-11-02 10:27:00
設計出自然語言的程式語言 每篇文章都可以執行garbage in garbage out
作者: goldman0204 (goldman)   2016-11-02 10:31:00
關鍵字"軟體"...
作者: widec (☑30cm)   2016-11-02 10:50:00
沒有五感,很難產生意識...搞不好關鍵在於加入觸覺

Links booklink

Contact Us: admin [ a t ] ucptt.com