Re: [姆咪] maximum likelihood

作者: int0x80 (請逐項修改)   2022-05-18 01:50:14
※ 引述《std92050 (熊貓大學劣等生)》之銘言:
: 這樣看起來MLE很trivial,但這也是因為你一開始就用了太多參數overfitting了,
: 之後也沒辦法根據這個結果做預測
我其實對這種統計的東西只有在大學機率課的時候學過一點點
不過我記得在教 MLE 的時候是說
既然他們似乎沒有明顯哪一個比較好,那你就拿能夠有最大 likelihood 的
然後這和 uniform prior 下的 MAP 會有一樣的結果
可是如果因為用太多參數而 overfit 就限縮參數的範圍的話
感覺和把某些參數的 prior 設為 0 是一樣意思
那既然你可以假設某些 prior 是 0,那似乎就沒有設 uniform prior 的理由了
就是你既然能夠對什麼比較有可能有所假設(例如是飛天麵神的機率為零)
那何不假設的仔細一點,而硬要直接拿 likelihood 呢
我當時是這麼想的,可能有點蠢,不過我的確不懂用 MLE 的理由
作者: std92050 (不想去上學)   2022-05-18 09:27:00
MAP我沒學過 不過用uniform prior 和決定參數數量不衝突吧例如你丟一顆硬幣,可以肯定結果跟旁邊的骰子各面機率無關但對於硬幣是否公正一無所知 ,那假設uniform prior就很合理

Links booklink

Contact Us: admin [ a t ] ucptt.com