分享自TFC 台灣事實查核中心
https://reurl.cc/44KNWY
【研究與動態】
最近發生的社會事件,是有人利用 #深偽技術(#DeepFake),將公眾人物的臉「移植」
到色情影片的主角臉上。
其實,深偽技術對查核組織來說已不是新名詞,但仍是棘手的敵人。去年美國大選期間,
查核中心曾發布過 #謠言風向球 文章,教大家破解偽造的政治人物影片;而在今年2月
,查核中心也曾採訪專家,跟讀者們一同認識深偽技術的生成與辨識。現在,我們就來一
起複習這幾篇文章吧!
相關閱讀:
〈台灣團隊研究辨識Deep Fake影片 深偽技術的正邪之戰開打〉
https://tfc-taiwan.org.tw/articles/5022
〈 國外事實查核組織揭穿「拜登睡覺」的假影片〉
https://tfc-taiwan.org.tw/articles/4410
--
查核中心提醒您:面對可疑訊息,可運用 #疑想查問戳 五字訣。
遇到可疑的性影像:#不點閱、#不下載、#不分享。
#深偽 是什麼?
#AI(#人工智慧)的技術中,其中一個領域是 #機器學習(#Machine_learning),深偽
技術即是屬於機器學習裡的 #深度學習 (#deep_learning)。
深偽能做什麼?
日前曾經流行的「#FaceApp」,讓使用者美化照片、變換性別、模擬變老的模樣,這就是
一種深偽技術的運用。
成功大學數據科學研究所助理教授許志仲說,常見的深偽影片是使用電影畫面,把演員的
臉換成其他名人。不實訊息研究機構《First Draft》創辦人克萊爾.瓦杜也曾指出,「
深偽影片」能將電影或節目中名人的臉換成其他人,或是讓名人在影片中說出他們沒說過
的話。
深偽會造成什麼影響?
許志仲說,有些人製作深偽影片是為了 #研究,也有人是為了 #惡搞,但如果有人利用合
成的假影像 #操弄資訊,這就比較嚴重。
瓦杜指出,隨著科技進步,深偽影片的製作會越來越容易、越便宜。當深偽影片趨向氾濫
,散布者的罪惡感將會減少。「深偽影片」最大的危機是造成民眾對所見所聞、以至於對
整個社會產生不信任,一點一點地 #破壞民主制度。
深偽影片能被破解嗎?
中研院資訊科技創新研究中心研究員兼副主任曹昱說,深偽技術的一端是 #生成器(
#Generator),它會模仿人類,希望讓「fake」和「real」越來越像,利如生成器會透過
大量資料去學習狗的模樣,直到可以畫出真假難辨的狗。
而深偽技術的另一端是 #辨識器( #Discriminator),辨識器可以分辨畫的狗和照片的
狗。生成器與辨識器會相互較勁,雙方都會越來越精進。
肉眼如何辨識深偽影片?
許志仲說,這些生成影像的人臉都很漂亮,但臉的邊緣可能會出現瑕疵,因此可以去觀察
邊界陰影的變化,若光線變化不自然,或是臉的邊線、髮絲與背景模糊不清,就可能有問
題。也有研究指出,偽造影像生成的人臉不會正常眨眼睛。因此可觀察人的眨眼頻率,或
眼神方向。
事實查核組織面臨的挑戰
中研院資訊科技創新研究中心助研究員陳駿丞也指出,用深偽技術來製作假訊息,可能不
需要用高難度的技術來做到完美影像,只要把 #影片解析度降低,如果民眾沒有警覺性,
就可能中招;又比如用模擬變聲雖然很難擬真,但如果混入街道上嘈雜的聲音,就會提升
辨識難度。
Deep Fake 受害者訪談影片:
https://youtu.be/nsslI93M4sw