作者:
RLAPH (西表山貓)
2025-02-24 14:45:43嗯吶
好奇問一下啊
大家都知道LOL這種遊戲
如果給AI練習走位 大概會比非可還強
而AI一向是朝最佳解去學習的
但就好奇啊
如果給AI餵像是羅傑或是大開的操作
逼迫AI去學習非最佳解
會變什麼樣啊?
有人知道咪?
作者: ZielC 2025-02-24 14:47:00
input trash output trash
作者:
qd6590 (說好吃)
2025-02-24 14:48:00傑西沒大
作者:
nahsnib (æ‚Ÿ)
2025-02-24 14:48:00不如讓他學習怎麼跟聊天時室對線
作者:
arrenwu (鍵盤的戰鬼)
2025-02-24 14:49:00腳本有需要用深度學習嗎?
作者:
a43164910 (寺æ‰ä¼Šå…)
2025-02-24 14:49:00聊天室老媽祖墳會爆開
作者: ZielC 2025-02-24 14:49:00
不是說髒話,但以最佳化的觀點去看就是上面的結論
作者:
lsd25968 (cookie)
2025-02-24 14:50:00你模型還是會算loss啊 所以還是會收斂
作者:
serding (累緊地們)
2025-02-24 14:52:00不如請AI玩動漫歌二選一
AlphaGO第一版就是這樣,餵食了大量人類棋譜後來的結論就是人類圍棋什麼弱雞,不餵食的版本更強不過弱雞版AlphaGO還是能夠4:1李世石
作者: ZielC 2025-02-24 14:53:00
然後完全最佳化,同時閃避+維持輸出範圍的情況,跟腳本應該要是相同的行動,只是原理變成你學習抓到那一frame輸出移動指令要怎麼下而已。腳本比較像是直接抓對面丟技能的事件
AlphaGO零號(不看人類棋譜)則在網路上匿名痛電所有職業棋手,60:0
作者:
zack867 (心裡有佛看人便是佛)
2025-02-24 14:55:00像初版學人類alphago一樣 強度比後來自己練的版本低吧?
人類圍棋知識中有少數確實是弱雞,一些小時候你下了會被老師釘在牆上的「臭棋」,現在可以換老師被釘在牆上不過大多數人類結論還是和AI一致,也沒有多丟臉
用格鬥來說,電腦比人類笨的地方在於能騙招,但是這種電腦都是事先寫好了,所以能騙一次就是騙無數次,如果電腦本身會學習並改良,那我想不到人類要怎麼贏你跳就623,你投就秒拆投,你做的任何動作電腦都能反應,做的都是錯的,想想就有夠牢
所以有的訓練會把AI的反應時間限制成人類等級就是避免AI秒讀招然後拆解 但實際上人類根本做不到
阿法狗:學你們人類棋譜不如自我學習人類喂AI現有招式不會讓AI進化
作者:
ccpz (OoOoOo)
2025-02-24 15:07:00local optimal or global optimal
感覺就是對策略空間限制搜索範圍之類的?就像對一個獎勵函數加一個限制約束項
作者:
CYHyen (CYHyen)
2025-02-24 15:26:00反正AI現在遊戲的結論就是全面爆殺人類,什麼大局觀、不完全資訊、細部操作。人類都是弱雞
可能還是會很強 就像初代alphago就是餵了很多人類棋譜事實證明 沒喂讓他自己學比較強