※ 引述《ig49999 (見子我老婆)》之銘言:
: https://www.facebook.com/PTT.TU/posts/10159158397526137
: 杜奕瑾
: 1 小時 뜊: AI Labs去年11月就公開在國際發表的演算法,還能被抓到,怎算先畫靶仔射箭?
: 凡走過必留下痕跡,做了就不要怕被分析。
: 笑鼠
: 八卦板板主還改板標
: 你各位五毛早就被杜老大抓出來了
: 只是我說
: 那個五毛名單呢?????
欸,我PTT外商碼農阿肥啦!現在還在當研究員,有六年機器人語意理解的研究經驗啦!
請杜先生可以認證我是同路人,我真的無所謂,就把我當在地五毛好了,反正我未來想換
工作也不打算投你們公司履歷。
不過我自己用午休15分鐘已經把你開源的代碼opinion那個看完了,還沒找到你說得國際
論文,先以你的代碼來推測。
你這邊我看到Google 已經train好的sentence encoder multi lingual啦!然後我這邊科
普一下,這個就是Google 2018年想解決一個句子級別的通用語言模型設計的,所以他對
於句子級語意相似度有天然性可以直接複用(原始的訓練模型方法就是這樣),不用額外
再弄個下游重新訓練啦!
然後你在拿這個去做Cosine Similarity 計算相同的語意把這些使用者相似語意的聚類在
一起,這樣只能說明你把相似言論的使用者做一個關聯成同一簇,然後就沒有然後了。
我就好奇了,相似言論只能證明可能使用者有類似的相同立場或是都是某個年齡層跟階級
,但是哪裡可以驗證這些使用者就是五毛?何況PTT本來就是有些人愛反串,有些人不爽
政府,想發洩自己的,大概我也不用做太多算法搞得自己很高大上就知道了啦!作為理工
人你的客觀性在哪裡?直接在算法的結論強加你的假設了,叫客觀??
最後,你依舊是先射箭再畫靶,那這樣結果自然就是只要你想要這個的結果,算法自然就
可以偏向你的預期,完全沒有研究價值。
我相信這也是你底下的研究員或工程師研究的,我只能說任職你們公司真的很可憐,為了
老闆的政治喜好研究員只能服從。
不要以為鄉民都不會看代碼啦!我覺得自己摸摸良心吧。
欸,懶得講了。