https://goo.gl/A7eHXU
蘋果 2017年10月19日11:34 國際中心/綜合外電報導
Google旗下Deepmind團隊開發的人工智慧AlphaGo,之前的版本分別在擊敗南韓棋王李世?
、中國棋王柯潔後相繼退役,但DeepMind仍繼續研發,時隔5個月又發表更進化的AlphaGo
Zero。AlphaGo Zero未使用任何人類棋譜,從零開始學習圍棋規則,短短3天內就以自創
招數,勝過人類3000年來累積的圍棋智慧,更成為打敗前代AlphaGo的頂級高手。
Deepmind團隊在科學雜誌《自然》發表論文,稱過去的AlphaGo都結合數百萬份人類圍棋
高手的棋譜自我學習,但最新的AlphaGo Zero未用到任何人類圍棋數據,憑藉更新後的
神經網路和演算法,依據圍棋規則和自己下了500萬盤棋後,迅速進步,「不僅重新發現
人類傾向使用的開局走法與招式……之後還揚棄了這些走法,自創出過去人類根本不知道
的招式。」
論文中指出,AlphaGo Zero自學3天後,就以100:0打敗在2016年3月戰勝李世?的舊版
AlphaGo;自學40天後,又擊敗今年5月戰勝柯潔的AlphaGo Master。
AlphaGo團隊負責人大衛席爾瓦(Dave Sliver)指出,AlphaGo Zero使用新的強化學習方
法,讓自己變成老師。系統一開始甚至並不知道甚麼是圍棋,只是從單一神經網路開始,
透過神經網路強大的搜索算法,進行自我對弈。隨?自我博弈的增加,神經網路逐漸調整,
提升預測下一步的能力,最終贏得比賽。
席爾瓦說,大家都以為,人工智慧只和大數據與大量資料的演算有關,但AlphaGo Zero證
明,演算法才是王道。 (國際中心/綜合外電報導)