[新聞] OpenAI認了「人聲複製新工具」太危險 

作者: Sinreigensou (神靈幻想)   2024-04-01 14:53:47
OpenAI認了「人聲複製新工具」太危險 不宜全面開放
美國人工智慧開發公司OpenAI於3月29日公布語音AI工具「Voice Engine」,只需要短短15
秒的說話聲音樣本,就能複製出此人聲音。不過,該公司也認定這項語音複製工具風險太大
,不適合全面發布。
「Voice Engine」於2022年首次研發,初始版本被使用在ChatGPT內建文字轉語音功能。其
生成結果不受聲音樣本語種限制,若說的是英文,這項技術可使用你的聲音,生成西班牙語
、法語等其他語言結果。不過,考量到存在濫用風險,現階段僅提供合作夥伴使用,尚未對
外開放。
《衛報》報導,OpenAI延遲推出「Voice Engine」,是為了在至關重要的全球大選年,最大
限度地減少假消息出現的可能性。
OpenAI在一篇貼文中表示,目前「Voice Engine」的生成結果都有浮水印,以利追蹤生成式
音檔的來源。與合作夥伴的使用條款也規定,必須取得原始說話者的明確知情同意,更不允
許開發人員讓個人用戶自行創造聲音檔案。
OpenAI表示,「目前選擇預覽而非廣泛發布這項技術」,是為了強化社會面對「更具說服力
的生成式模型」的能力,呼籲逐步淘汰語音認證,作為登入銀行帳戶或其他敏感資訊的安全
措施,制定在AI領域使用個人聲音的保護政策,以及推廣理解AI能力與限制、包括欺騙性內
容的公眾教育。
OpenAI寫道,「我們希望針對負責任地使用合成聲音,以及社會如何適應這些新功能,展開
一場對話」,並且根據對話結果及小規模測試,對於是否、如何大規模使用這項技術,做出
更明智的決定。
https://www.ettoday.net/news/20240401/2710876.htm
https://i.imgur.com/C2dZ1S5.jpg
阿笠博士的黑科技變聲蝴蝶結終於實現了
蝴蝶結現場收音15秒就能複製命案現場任何人的聲音
作者: lolic (lolic)   2024-04-01 14:56:00
以後用ai製造不在場證明
作者: sunlman (小人)   2024-04-01 14:56:00
講電話之前都要先對口令了嗎XD
作者: Fatesoul (Chiester)   2024-04-01 14:57:00
現在才認太危險
作者: hui000807 (Santa)   2024-04-01 14:57:00
這openAI產出的東西大家倒是很一致的認為只會更促成混亂和陰謀論而已
作者: tom11725 (奧特斯)   2024-04-01 14:58:00
網路上的東西已經很假了,再來就完全都是假的了
作者: cybermeow (我有一隻貓)   2024-04-01 14:58:00
Openai 觀點一直都是太危險不開放啊 然後變成closeai
作者: w2776803 (台南假面騎士HUNGER)   2024-04-01 14:58:00
複製總統的聲音就好玩了
作者: s02180218 (不惑)   2024-04-01 14:58:00
要是生出一堆仿希特勒演講 歐美一定暴怒
作者: KUSURI (UnderTheBurningSky)   2024-04-01 14:58:00
以後錄音證據不一定為證 搭配上影像AI生成 應該可以期待無中生有的紀錄片
作者: a125g (期末崩潰討噓哥)   2024-04-01 14:59:00
詐騙新手段
作者: cybermeow (我有一隻貓)   2024-04-01 14:59:00
今天openai 說覺得新東西不危險才是新聞
作者: ryoma1 (熱血小豪)   2024-04-01 14:59:00
YT美國總統同樂玩遊戲的影片不曉得有沒有上百支了
作者: sasmwh561 (卡爾卡諾m9138)   2024-04-01 15:01:00
以後聲紋驗證要走入歷史了
作者: killerj466v2 (肥肥)   2024-04-01 15:02:00
聲紋比圖畫AI可怕多了
作者: magamanzero (qqq)   2024-04-01 15:02:00
這個聲紋也一樣?
作者: a125g (期末崩潰討噓哥)   2024-04-01 15:02:00
一些機密東西不能再用聲紋認證某些武器授權之類的
作者: madaoraifu (沒有反應,就是個Madao。)   2024-04-01 15:03:00
openai有不危險的東西嗎?
作者: Annulene (tokser)   2024-04-01 15:04:00
....假道學
作者: kaj1983   2024-04-01 15:04:00
AI危險的東西以後只會更多假新聞假影片,以後不會再出現網紅小雞這種低能案例了要造假騙流量將會非常容易
作者: Annulene (tokser)   2024-04-01 15:06:00
講一大堆 結果還不是探社會底線 跟之前一樣...
作者: breadf ( Lifting Turn )   2024-04-01 15:06:00
不可能任務出現過
作者: kaj1983   2024-04-01 15:07:00
詐騙行業將會變得更發達
作者: ayufly (.)   2024-04-01 15:08:00
詐騙業要起飛了
作者: Stella (鋼琴控)   2024-04-01 15:10:00
這東西早就有了,GitHub隨便找鬥一堆
作者: sustainer123 (caster)   2024-04-01 15:12:00
closeai
作者: Rain0224 (深語)   2024-04-01 15:13:00
這不是什麼openai 的產品很危險,也跟任何特定企業無關,而是ai 的技術持續發展,社會就勢必要面對的問題,就算openai 不開發,也會有其他人做出來
作者: dieorrun (Tide)   2024-04-01 15:14:00
反正弄出來先投入詐騙就對了
作者: Rain0224 (深語)   2024-04-01 15:15:00
技術發展的速度遠快於社會適應的能力
作者: gaaaaper (筷子王)   2024-04-01 15:15:00
詐騙星球
作者: orze04 (orz)   2024-04-01 15:16:00
AI 圖和假影片還算容易區別,人聲置換真的沒那麼容易分
作者: milk830122 (SuperX)   2024-04-01 15:16:00
歹丸第一個先投入
作者: kaj1983   2024-04-01 15:18:00
其他公司要辦到像openai的程度應該是很難啦
作者: CannonLake (等待農藥)   2024-04-01 15:18:00
學習資料庫夠多 一定分不出來 隔壁最大聲紋庫有幾十年樣本老素都ai了
作者: kinghtt (萬年潛水伕)   2024-04-01 15:19:00
AI做假影片+聲音,以後要抓罪犯更難了...
作者: kaj1983   2024-04-01 15:19:00
AI就是在軍備競賽,規模不夠大的玩不起夠大的公司在訓練效率上是翻倍來計算的
作者: kenkenken31 (呆呆傻蛋)   2024-04-01 15:21:00
以後做人要謹言慎行做好大谷一般的形象,不然AI幫你放話你就社死了,每個人都覺得你賤嘴這話肯定是你說的
作者: TaiwanXDman (XD...)   2024-04-01 15:22:00
柯南都是真的
作者: Johnsonj (栗鼠別咬啦>"<)   2024-04-01 15:24:00
AI Koyo的人聲合成不是玩好一陣子了XDDD
作者: h75311418 (Wiz)   2024-04-01 15:24:00
以後用AI做講影像配聲音就麻煩了
作者: edwinrw (言靈祝福)   2024-04-01 15:27:00
不可能的任務
作者: as3366700 (Evan)   2024-04-01 15:29:00
二次元在吵繪圖AI會不會搶工作 三次元那些換臉 換身人聲AI是實實在在侵害名人的...
作者: none049 (沒有人)   2024-04-01 15:30:00
以後就算有人要謹言慎行做好形象,用AI的照樣給你社死
作者: PunkGrass (龐克草)   2024-04-01 15:31:00
想到之前水原那事 假如有人用大谷的聲音跟形象去做假影片...
作者: none049 (沒有人)   2024-04-01 15:31:00
一開始就是以社死特定人物當目標的哪會在乎目標原本的形象如何啊?用AI量產假聲明進行海量抹黑就可以讓當事人闢謠跑斷腿了
作者: bobby4755 (蒼鬱之夜)   2024-04-01 15:35:00
某甩蔥軟體躲過一劫
作者: KurumiNoah (胡桃のあ)   2024-04-01 15:39:00
不可能任務3真實上演
作者: Xpwa563704ju (coolcookies)   2024-04-01 15:51:00
網路上早就有類似的東西了,只是好不好用不清楚
作者: PoGreg (雷格西18)   2024-04-01 15:58:00
什麼謹言慎行 以後要像麻椅那種賴皮不怕黑的才能活的久
作者: dnek (哪啊哪啊的合氣道)   2024-04-01 16:03:00
想不到這黑科技是真的
作者: polun   2024-04-01 16:05:00
AI圖片影像也很危險拉 弄成照片影片也是越來越精細
作者: snocia (雪夏)   2024-04-01 16:06:00
AI主要功用
作者: jazon (Perhaps, Love)   2024-04-01 16:22:00
現在有喔 要小心 接電話沒出聲收你的聲音去複製
作者: hololive45P (MIKO-MIKO-MI)   2024-04-01 16:32:00
類似的AI模擬原音在YT已經很多了,而且很像
作者: bobby4755 (蒼鬱之夜)   2024-04-01 16:41:00
光市面上的語音模擬+deepfake 就生出一堆冒用名人的投資詐騙了
作者: umano (ぎゃああああああああ)   2024-04-01 17:14:00
不可能的科技
作者: greg90326 (虛無研究所)   2024-04-01 17:25:00
求救 有沒有對身體其他部位無害的變啞巴方法
作者: asdfg5435   2024-04-01 17:47:00
我媽如果打給我 要錢 我一定上當…
作者: cloki (夜雲天)   2024-04-01 17:49:00
人聲AI就算沒OpenAI拿出來也好一陣子了,只是訓練成本高
作者: logitech2004 (ddd)   2024-04-01 17:50:00
詐騙集團又更厲害了

Links booklink

Contact Us: admin [ a t ] ucptt.com