※ 引述《tlchen (台灣加油)》之銘言:
: 從這兩個 twitter 來看, AI 在 79 時仍認為自己有 79% 的勝率,
: 直到第 87 手時,才發現勝率驟降。四日棋迷猜測如下:
: AI 估計勝率是經由之後的模擬,白 78 手被認為神手,但或許是之後
: 的巧妙變化是不明顯的,所以 AI 無法知道這手有這麼大的功用,或
: 是說,無法準確的評估此時的盤面。
value network 是給一個盤面 (361 個輸入黑/白/空) 直接告訴你勝率.
基本上盤面幾乎不會重複, 所以每一個盤面都是 AlphaGo 或人沒看過的.
如果是人, 中盤之後可能會開始點空估計目數.
而估錯最可能發生在以為的活棋其實是死棋, 比如說進行中的攻殺.
value network 是餵給它千萬盤面, 然後跟它說最後是贏是輸訓練出來.
遇到新的盤面, value network 根據之前的經驗 (神經連結權重) 吐出結果.
如果單純餵 "361 個輸入黑/白/空" 進去訓練一定完蛋,
因為這樣變成單純的形態學, 長得像某個樣子就以為會輸或會贏.
圍棋很多時候差一路就差很多 (好手的旁邊常是惡手)
所以還會加入 "剩下的氣數" "提子數" "手順" "征子" 等等資訊進去訓練.
如果人類認為 79 手的盤勢黑棋大劣了, 那麼 79 手的盤面 value network
就應該吐勝率陡降的值出來, 而不是等到 87 手的盤面才反應.
如果 AlphaGo 知道 79 手 (甚至更早) 的盤面劣勢, 前幾手就會避免走上這個局面.
但到 87 手才知道劣勢, 這時候已經走上不歸路.
AlphaGo 團隊回去一定是在研究這種盤面為什麼會估錯, 以及要如何調整訓練方式.
: 這提供了要對付目前這版 AlphaGo 的方法,你最好下一些方法是:接
: 下來對你的最佳解跟次佳解,結果會差很多,這樣 AI 用模擬的,就有
: 機會誤判。如果你下的棋,接下來的應對,結果都差不了太多,那 AI
: 自然估得準。讓它估不準,才會在接下來還沒估準前,繼續出錯。
這真的要拼 AlphaGo 形勢判斷錯誤.
但是我們不知道甚麼樣的盤面可以讓 AlphaGo 形勢判斷錯誤, 劣勢誤以為優勢.
也許是大規模攻殺, 然後又走進特定的棋型 (像小李今天那一手) 讓它誤判.