Re: [新聞] AI玩Dota2可以戰勝半職業戰隊 專家:作弊

作者: ohmylove347 (米特巴爾)   2018-08-20 04:28:15
※ 引述《madeinheaven ()》之銘言:
: AI玩《Dota2》可以戰勝半職業戰隊》專家:存在作弊行為
: http://news.17173.com/content/08192018/214546321.shtml
: 【17173新聞報導,轉載請註明出處】
: OpenAI是一家在2015年由馬斯克等諸多硅谷大亨聯合建立的AI非營利組織。前不久,他們
: 曾組織OpenAI Five和一支由半職業高手組成的戰隊進行了一場DOTA2比賽,結果直下兩盤
: 輕鬆獲勝,也讓大家驚呼AI的無限可能。
: 然而近日,一些外國專家卻指出這場勝利並不光彩,因為AI方存在作弊行為。因為OpenAI
: 直接通過API接口讀取比賽數據來進行反饋和操作,由於是完全即時的數據,相比起先看
: 到遊戲畫面再反應的人類來說,確實是屬於作弊行為。
: 此前DeepMind開發的一款AI也曾進行過《星際爭霸2》的訓練,不過由於是通過視覺識別
: 來進行操作,所以這款AI最終連簡單電腦都打不過。看來,AI對競技遊戲的攻略還得再花
: 些時間了。
:
作者: Minesweeper (lleh)   2018-08-20 04:34:00
為什麼連走都有困難就要先學飛了...呢
作者: fearman5566 (沒)   2018-08-20 04:39:00
Google的作法才是學走路啊
作者: Minesweeper (lleh)   2018-08-20 04:43:00
無法理解視覺化的關鍵意義在哪
作者: hollowland (顛倒鐘)   2018-08-20 04:48:00
就啥怪怪的東西都可以套這樣
作者: LF2Jeff (LF2-豆腐)   2018-08-20 04:57:00
如果你做了一個機器人,你覺得他學SC時靠頭牽一條線讀數據和用電子眼睛看新手教學來學,哪個算是比較成功的AI?
作者: Minesweeper (lleh)   2018-08-20 04:59:00
我會覺得先做出來打贏人類再說,因為我覺得現階段就算給你讀數據好了,一樣打不贏
作者: arrenwu (鍵盤的戰鬼)   2018-08-20 05:00:00
Clarify一下,AI的學習還是使用人類定義的好壞你的意思比較像是不屈就於人類覺得好的戰術
作者: backzerg (Blackzerg)   2018-08-20 05:05:00
重點不是打贏 是像人類一樣的學習模式不是什麼都讓人類輸入資料 而是電腦主動去看 去學
作者: hollowland (顛倒鐘)   2018-08-20 05:10:00
mine的說法是告訴AI怎麼用火 但是以現在的模式這個AI最後就只會用火其他什麼都不會google是想要讓AI靠自己摸索知道怎麼用火最後就可以靠著這個自己摸索的流程會其他的東西
作者: Minesweeper (lleh)   2018-08-20 05:15:00
也就是說要建立學習典範,然後拿星海簡化情況
作者: angel2210 (至死不渝)   2018-08-20 05:17:00
星海的情況其實有點複雜吧xd
作者: backzerg (Blackzerg)   2018-08-20 05:19:00
是啊 未知情報很多 狀況也複雜多變 還有很長的路要走但只要成功了 距離萌萌機娘蘿莉的誕生又更近了一步
作者: Minesweeper (lleh)   2018-08-20 05:20:00
https://arxiv.org/abs/1708.04782他們有嘗試做局部的小遊戲去測試的樣子
作者: arrenwu (鍵盤的戰鬼)   2018-08-20 05:26:00
與其說星海複雜 不如說圍棋太簡單了
作者: Minesweeper (lleh)   2018-08-20 05:38:00
結果這篇論文主要碰到的問題依然是戰爭迷霧
作者: enjoytbook (en)   2018-08-20 05:40:00
太簡單個毛...啊不就是棒棒好棒棒
作者: Minesweeper (lleh)   2018-08-20 05:41:00
簡單是相對於不完全資訊的遊戲的複雜度
作者: orze04 (orz)   2018-08-20 05:42:00
圍棋是完全資訊遊戲 雖然幾年前誰都不認為會被AI攻克
作者: arrenwu (鍵盤的戰鬼)   2018-08-20 05:46:00
除了不完全資訊,連action space 都不一樣複雜話說對SC2的project有嘗試過關閉戰爭迷霧的實驗嗎?
作者: Minesweeper (lleh)   2018-08-20 05:50:00
局部有專家水準,全局遊戲遇到一堆問題我也覺得至少也嘗試一下開圖吧...
作者: angel2210 (至死不渝)   2018-08-20 05:52:00
主要是戰爭迷霧下 偵查有可能得到假訊息
作者: arrenwu (鍵盤的戰鬼)   2018-08-20 05:53:00
妳上面連結那篇paper的abstract裡面是說ai玩mini-game可以學得跟novice player差不多 不是專家水準吧?
作者: angel2210 (至死不渝)   2018-08-20 05:54:00
然後這個訊息可以直接影響勝負
作者: arrenwu (鍵盤的戰鬼)   2018-08-20 05:54:00
我比較懷疑的是...會不會開圖也還是屌輸啊XD
作者: Minesweeper (lleh)   2018-08-20 05:57:00
結論有寫
作者: deathslipkno (Soloist)   2018-08-20 06:05:00
認真文,我走錯版了
作者: ohmylove347 (米特巴爾)   2018-08-20 06:07:00
我認為視覺化只是接收訊息的方式,但ai真正的重點在訊息的處理,雖然視覺化的訊息也是需要處理,不過這方面研究蠻久了算成熟的,所以我覺得視覺化不是很關鍵
作者: angel2210 (至死不渝)   2018-08-20 06:11:00
目前ai大概就是個內力100 招式0 智力0吧
作者: lturtsamuel (港都都教授)   2018-08-20 06:22:00
reinforcement還是會有最先的模型吧 不能說是從0開始
作者: smart0eddie (smart0eddie)   2018-08-20 06:45:00
Alpha Go到後來真的是從零開始的
作者: Minesweeper (lleh)   2018-08-20 06:50:00
With this initial release,we describe supervisedlearning results on the human replay data for policy and value networks
作者: orze04 (orz)   2018-08-20 07:01:00
上面有說到重點 圍牆頂多是一人輪流一子 每一輪的落子就那些盤上的位置即時戰略沒有回合的概念,可以採取的動作種類與數量超大資訊種類也大於棋類遊戲,資源量、建築與戰鬥單位、科技………
作者: Minesweeper (lleh)   2018-08-20 07:05:00
回原po,他們得處理方式是:We describe the observation, action, and rewardspecification for the StarCraft II domain主地圖切成幾個小區域,然後詳細觀察小區域物件的互動不過即便如此,ai還是算不太完(電腦看到圖,要在有限步驟內反應)
作者: uloyoy (FineTune)   2018-08-20 08:15:00
這篇我覺得不行 RL可以定義reward和action,並不是只有輸贏然後讓電腦去測
作者: ohmylove347 (米特巴爾)   2018-08-20 08:27:00
沒記錯我記得deep mind好像用暴雪給的遊戲分數,可是那個幫助好像也不大
作者: kinomon (奇諾 Monster)   2018-08-20 09:21:00
母湯喔 機器人準備要毀滅人類惹
作者: ssd860505da (JAGER)   2018-08-20 11:09:00
我倒不覺得記憶量是關鍵人類大腦在判斷時也不會瞬間閃過一堆記憶,都是經年累月累積的經驗,所以重點是要如何將經歷過的事件轉化為有意義的經驗。例如replay buffer
作者: Jotarun (forever)   2018-08-20 11:19:00
看c恰討論這種議題都笑笑就好 :P
作者: WindSucker (抽風者)   2018-08-20 12:04:00
學alphago先看別人對戰記錄分析勝率
作者: kira925 (1 2 3 4 疾風炭)   2018-08-20 13:28:00
用過了 一點意義都沒有

Links booklink

Contact Us: admin [ a t ] ucptt.com