作者:
sxy67230 (charlesgg)
2023-12-14 09:26:07※ 引述《benjamin99 (BigPaPa)》之銘言:
: 1. GDPR 的適足性,甚至是國內是否該完全班照規範來訂都是有持續在討論的;你不知
道
: 2. GDPR 架構上有沒有問題?有。其中一個是因為很多領域如醫療等其實很難訂出全歐
一
: 3. 另根據研究,在 GDPR 實行也對產業產生衝擊,有數據指出有 8% 的利潤損失,其
中?
: 綜上說出一個詞彙給自己安個名聲很簡單,但實際探討該認真討論的面向與顧慮還是很
多
阿肥外商碼農阿肥啦!
這邊阿肥作為專業研究員還是補充一下,GDPR目前對於AI產業最大衝擊就是數據脫敏的嚴
格程度提高。
這邊說一下傳統的訓練模型流程就是對待學習的數據進行去識別化跟移除敏感資料後再進
行學習,這樣就可以直接避免模型學習到用戶個資。
不過隨著GDPR的嚴格規範,這衍生了一個問題,像醫療、保險領域資料其實都是相依於用
戶本身的,即便怎麼樣脫敏去識別化其實也很難不去使用到類個資訓練,這也是為什麼聯
邦學習、機器反學習會是這幾年很重要的學術研究議題。
這邊科普一下聯邦學習(Federated Learning)主要就是於客戶雲或是設備端建立模型再透
過模型跟雲端主服務的大模型進行參數交換,由於傳出的不是原始數據而是地端的模型輸
出所以疑慮會少很多,他其實可以等效成分散式計算。不過問題就在於怎麼樣跟大量的數
百萬台機器進行交換參數還有主模型的訓練,這個到現在還是一個大問哉,而且面對現在
動不動就70B等級的AI模型怎麼交換而且能保持效率也是大問哉,導致現有的聯邦學習技
術存在瓶頸。
另一種就是機器反學習(machine unlearning),這應該是今年突然變得很熱門的子領域(
以前做這個的都是相對冷門),他研究的方法是我就直接拿用戶資料訓練出一個巨量大模
型再標記出敏感資料讓AI去針對敏感資料去學習化並且不要喪失從敏感資料裡面學習到的
抽象概念也就是不喪失本身的性能。目前反學習有一個大問題就是災難性遺忘,隨著你要
反學習的數據變大,那災難性遺忘就會加劇,最後AI就會喪失本身預測的能力,要怎麼平
衡還是前沿研究領域。
其實因應GDPR真的還是有很多國外企業在重視,尤其是五大巨頭FANNG、中國在這塊很多
他們的網路巨頭也投入很大量的心力,對岸政府其實也是在全力支持資料監管要建構比照
歐盟。
對於三組副總統候選人,我覺得吳還是有很好的國際高度的,當然他不是專業研究人員肯
定對於名詞跟背後衍生的技術產業變化是沒那麼鑽研的,不過還是比起其他兩位只會打高
空的務實很多。