作者:
int0x80 (請逐項修改)
2022-05-18 01:50:14※ 引述《std92050 (熊貓大學劣等生)》之銘言:
: 這樣看起來MLE很trivial,但這也是因為你一開始就用了太多參數overfitting了,
: 之後也沒辦法根據這個結果做預測
我其實對這種統計的東西只有在大學機率課的時候學過一點點
不過我記得在教 MLE 的時候是說
既然他們似乎沒有明顯哪一個比較好,那你就拿能夠有最大 likelihood 的
然後這和 uniform prior 下的 MAP 會有一樣的結果
可是如果因為用太多參數而 overfit 就限縮參數的範圍的話
感覺和把某些參數的 prior 設為 0 是一樣意思
那既然你可以假設某些 prior 是 0,那似乎就沒有設 uniform prior 的理由了
就是你既然能夠對什麼比較有可能有所假設(例如是飛天麵神的機率為零)
那何不假設的仔細一點,而硬要直接拿 likelihood 呢
我當時是這麼想的,可能有點蠢,不過我的確不懂用 MLE 的理由