※ [本文轉錄自 Reewalker 信箱]
作者: paericsson (pa) 看板: Gossiping
標題: [新聞] 亞馬遜廢除招聘分析系統 因為AI會歧視女
時間: Wed Oct 10 13:12:50 2018
1.媒體來源:
※ 例如蘋果日報、奇摩新聞
自由
2.完整新聞標題:
※ 標題沒有寫出來
作者:
getbacker (工作十年了啊.......)
2018-10-10 20:48:00男性沒有生理假產假,比較能接受加班到半夜或獨自出差到開發中國家,硬要男女錄取一樣多只是齊頭式平等
作者:
Luos (Soul)
2018-10-10 20:48:00正確的AI
作者: aminoyoyo (YOYOYO) 2018-10-10 20:52:00
真AI
好奇AI團隊為什麼無法解決這問題,就算是imbalance data,也可以做調整,不然就是修改loss function,再不然,最後predict結果,再去篩一半男一半女,或是分兩個model,男女用不同model
作者:
MrZiXu (子虛先生)
2018-10-10 21:07:00亞馬遜傻了嗎?公司就是需要男性啊
作者:
a9564208 (YOU OUT!!)
2018-10-10 21:29:00男女用不同model不怕女權團體抗議?
作者:
kmaster (救球是一門藝術)
2018-10-10 21:35:00這也可以說整個體制對女性仍是不友善,存在偏見
作者:
willism (hpc5)
2018-10-10 21:53:00看國內新聞智商會下降,更何況一堆人連國內新聞都看不懂...隱含意思就是以“近10年錄取人數”來看,亞馬遜錄取的女性員工少的可憐,所以資料餵給AI,AI自然把性別=女性的權重調低。而去看reuter的新聞,裡面還寫到只要履歷內提到“women' s”,AI就扣你權重...
作者:
willism (hpc5)
2018-10-10 21:58:00AI偏見(重現人類偏見)的新聞不曾少過,什麼黑人多罪犯,或護士就女性之類的,這新聞不過滄海一粟
作者: furio (void) 2018-10-10 22:08:00
搞不好統計結果就是這所謂"偏見",不看數據就說人偏見這....不知道這算不算偏見
作者:
n791116 (天母金城武)
2018-10-10 22:10:00在說廢話 理工科系男多於女 工程師自然女少不過台灣中文系也可以當工程師應該是例外
作者: longlongint (華哥爾) 2018-10-10 22:13:00
不合理 feature 不填性別就能解決的事情新聞應該寫錯了
作者: TWLAB (AlphaGO) 2018-10-10 22:14:00
AI認證
作者:
donkilu (donkilu)
2018-10-10 22:20:00Machine learning的無解課題啊lol
作者:
ciplu 2018-10-10 22:39:00輸入怎樣的資料 就會輸出怎樣的結果
作者:
labiron (labiron)
2018-10-10 22:49:00就統計數據自然產生的結果 以後AI也要學會政治正確不然會變成AI騎士
作者: o760823 (鋒) 2018-10-10 22:56:00
仇女
作者: raku (raku) 2018-10-10 23:30:00
AI認證的
作者: poeoe 2018-10-10 23:35:00
專業AI
作者: OxFFFF (65535) 2018-10-10 23:55:00
扯資料男>>女train起來會有偏差的顯然才是不會train。如果這堆女性都是表現前20%即使資料少,AI分析結果也會是女性優於男性資料不對稱的解決方法很多好嗎,只要分佈合理就沒問題
就一間公司發現他們的AI可能會給女性較低的分數,然後有人自己去推測那個AI是怎麼寫的,還罵其他人白痴,到底是...?
作者: blue237 (換了位置就換了腦袋) 2018-10-11 01:22:00
寫AI的忘記加入現實模組[(長相+胸部)>(經歷+實力)]
作者:
willism (hpc5)
2018-10-11 03:07:00網友說資訊不對稱的解決方法很多,說啥女性如果表現前20%,就算人少,被AI投票也會拿高分!這種人是不知道個人能力(表現)是常態分佈的嗎,在這種狀況下,人少就是劣勢...就算拿掉性別,男女還是有很多不一樣,ex.社團活動、科系、興趣等
作者: OxFFFF (65535) 2018-10-11 06:55:00
還以為想說什麼,結果扯一堆跟target無關的... xD
作者:
Sadan (Danny)
2018-10-11 07:09:00女性本身表現普通就差男性一截啊
作者:
willism (hpc5)
2018-10-11 07:30:00那是features好嗎,最好和target無關啦
作者: OxFFFF (65535) 2018-10-11 07:39:00
是feature就會拿去當input做normalize啊,那不就是說這分析資料已經考慮你原本說不考慮的東西了嗎?資料數量不對稱跟model input根本兩件事 = =,還是你覺得Amazon資料「分佈」會不夠豐富? 數量問題能解決,資料的分佈問題才會影響結果
我是覺得input的資料沒有性別 而ai跟據data train出來選有該技能的人多是男性 新聞導因為果 deer被新聞誤導了吧
機器學習 乃資料之統計 歸納之結果 由此可知推文很好笑欸 亞馬遜工程不會解data 偏誤還3小的問題嗎 你們想的到的他們會想不到嗎
作者:
ljmk1246 (ljmk1246)
2018-10-12 00:19:00啪啪啪啪 打臉女權廢物
光是能不能出差,就卡死多數女性,就算是國外多數還是女性在照顧孩子