Re: [閒聊] 人機大戰觀後雜感

作者: hdjj (hdjj)   2017-05-28 12:34:35
: → devidevi: AI選擇投子之後,已經認為沒有贏的希望.... 05/27 23:18
: 推 HeterCompute: 說句實話,AlphaGo想要投子的時候古力是真的完全沒 05/27 23:19
: → devidevi: 對AI而言怎麼下都是輸,這樣不算是BUG吧 05/27 23:19
: → HeterCompute: 機會了,古力只是想要整理一下心情,畢竟從大優變成 05/27 23:19
: → HeterCompute: 輸棋,那時差距已經二十目了,不可能逆轉的 05/27 23:20
不是有意抬摃,但這裏是有盲點的。
這局棋就是個很明顯的例子。在人機配對賽裏,人就是最大的變數。暫且不論時力
故意自緊一氣自填一眼的極端例子,以人加機器這樣的組合,只要是人,就有可能
出錯,或是下出緩著。
今天配對的是兩位高手,所以這樣的情況並不明顯,換成兩位業餘棋手上去,可以
預期出現意外翻轉的可能性更高。
這在現實應用上的意義更深遠。以自動駕駛為例,AI在判定時也許總是可以做出
最佳決策,但總是有突然衝出的老人,油門當煞車踩的新手,硬闖紅燈的死小孩。
在類似這種情況下,防禦性的應對,柔軟性的妥協忍耐,都是極為重要的。
AI在逆境劣勢裏的反應,是一個很重要的課題。應該沒有人願意看到,輸給李世
石的AI發神經的樣子。因為這和AI「求勝」的原始指令是有所衝突的。
只是這討論下去沒完沒了。這種事,還是留給黃博士這種專業人士傷腦筋吧。XD
作者: HeterCompute (異質運算)   2017-05-28 12:44:00
我一直很想噓自動駕駛的例子,圍棋是輸贏,自動駕駛考慮安全,目標不一樣混為一談就是錯的,而且我完全不同意換成兩位業餘棋手上去意外翻轉更高所以要繼續那你到底希望怎麼樣的翻盤形式,請具體說出來,不要說穩穩收然後對方會自己緊氣到只剩一氣給你吃這種
作者: q6261901 (皮笑了那肉呢)   2017-05-28 12:51:00
AI最大的障礙不是輸贏,而是哲學...效益與道德的衝突...
作者: DendiQ (貔貅)   2017-05-28 12:56:00
訓練時沒加入人類干擾而已…目標不同要重新訓練
作者: lionheart60 (宅熊冗厚)   2017-05-28 13:11:00
阿斯拉vs皇呀
作者: bxxl (bool)   2017-05-28 13:18:00
我覺得很好笑的的一點就是對AI苛求完美,對人類缺點理所當然人類遇到意外狀況就不會出包? 機器出包率有人類高嗎?
作者: KAOKAOKAO (鬼斗)   2017-05-28 13:47:00
一樓ID取異質計算想必也是此道中人 但是可以查查自駕肇事率 你就會發現人類肇事率海放純效益主義考量 至少在駕車 也應該全面取代人類
作者: gundam778 (幸村)   2017-05-28 13:48:00
因為心理上接受不了,所以會拒絕認同和理解。這是正常人類的行為模式駕車事故有九成是人為所致
作者: Uizmporm   2017-05-28 13:57:00
路人的比喻不對 要對比也是突然想自行操控的駕駛AI可以學習如何閃避亂入的路人 但沒辦法接受失去控制權
作者: q6261901 (皮笑了那肉呢)   2017-05-28 14:19:00
自動駕駛可能還是無法解決道德問題左打方向盤撞死老人,直走撞死小孩,右彎撞電線桿自亡ai如何判斷,難道要自我毀滅XD這是很典型的哲學問題,人類卡在這關已經很久了~
作者: Maybetrue (已婚)   2017-05-28 14:27:00
你說的沒錯,我也跟你有一樣的觀點
作者: HeterCompute (異質運算)   2017-05-28 14:29:00
我認同自動駕駛的價值,只是兩種不同目標的AI類比不倫不類
作者: KAOKAOKAO (鬼斗)   2017-05-28 14:32:00
to q大:人類在面臨一樣困境時就沒有道德問題嗎?
作者: ykes60513 (いちご)   2017-05-28 14:33:00
那種極端情況讓人去駕駛也沒法處理更好吧...有種角度是
作者: KAOKAOKAO (鬼斗)   2017-05-28 14:33:00
h大: alphago標誌的是一種汎用性 延伸出去的話題涉及
作者: ykes60513 (いちご)   2017-05-28 14:35:00
盡可能讓傷害最小化 這點AI應該還是辦的到的q大的例子 大概就選自撞吧 鐵包肉活命機會比較大(?而且AI應該不至於會滑坡到那樣極端的情況
作者: NoManInCar (NMIC)   2017-05-28 14:38:00
人也是會遇到這個問題 有人可以負責 AI出事誰負責?
作者: KAOKAOKAO (鬼斗)   2017-05-28 14:41:00
責任歸屬問題只要契約定好就沒問題了 一定有人負責
作者: bxxl (bool)   2017-05-28 14:42:00
AI出事就賣AI裝置的廠商負責吧,但他應付的責任不高於
作者: KAOKAOKAO (鬼斗)   2017-05-28 14:42:00
契約沒定好又會自己動的東西有人敢買嗎?
作者: q6261901 (皮笑了那肉呢)   2017-05-28 15:00:00
現行法律的責任歸屬,到底有沒有符合公平,都很難下這個定論,加上AI的攪局,勢必更為混亂。不過AI應用勢在必行,我是蠻樂觀其成AI在沒觸及道德層面中的貢獻,但如果跨入道德層面,個人覺得人類距離滅亡感覺也不遠了
作者: oklaohya   2017-05-28 15:39:00
Ai會避開任何危險,人類想的到的風險它都能避開
作者: lyricslee (奕)   2017-05-28 15:54:00
說自撞不會死的是有事嗎
作者: chaohsiung (熊)   2017-05-28 17:40:00
MIT在開發道德模擬器,討論自駕車該選擇撞死什麼人例如在前方有小孩,閃避卻會撞到路旁老人的情況。一定會撞到人時,AI該選擇撞哪一邊
作者: bxxl (bool)   2017-05-28 17:51:00
這不是一個AI問題,而是人類要做的選擇題你選好之後,讓AI學習你想要的行為即可
作者: q6261901 (皮笑了那肉呢)   2017-05-28 18:03:00
樓上完全懂得我要說的話,也許有人會說就讓ai自己決定但如果人類沒辦法有自己的意識,勢必最後會走向滅亡
作者: ykes60513 (いちご)   2017-05-28 18:20:00
我什麼時候說自撞不會死了= =
作者: theophilus (EJLi)   2017-05-28 21:10:00
這幾天,AI就告訴你他的決策比人好

Links booklink

Contact Us: admin [ a t ] ucptt.com