※ 引述《kai851121 (arrkaiii)》之銘言:
: 看了這篇 快受不了
: 我以為lol版 一堆肥宅工程師
: 結果沒一個有認真在想的
: 來
: 為什麼不能用算得
: 1.棋子移動方式隨機性高
隨機性過程確實會比決定性過程複雜
但目前主流用的 MDP 本來就是 model 隨機過程
決定性過程只是特例 目前要處理隨機過程完全不是問題
(就像 atari game 也很多隨機性 概念簡單的DQN就照樣玩的比人類好)
: 2.技能施放隨機性高
: 幾乎沒有辦法複製任何一套對局
: 這代表什麼?
: 需要更多的事件來累積對局總量
: 再加上
同上 這完全不是問題
: 3.一局狗幹30分鐘
: 這不像圍棋兩個ai狂下猛下累積次數
: 一局不用幾秒
: 30分鐘一局欸
你怎不說圍棋一盤要下多久 = =
電玩遊戲是為了讓人類看懂才跑的慢
真的要跑大部分的時間會是輸入 input 給 model 跑出 prediction 的時間
遊戲回應的時間根本可以忽略
另外就算無法自己實現遊戲所以無法加快
也可以蒐集人類玩的經驗做 off-line learning
: 我是不知道神經網路它設計是幾層啦
: 但是我看算完到演算法出來
: 英雄聯盟大概倒了
: 說不定60歲拿來回味還有點搞頭
: