[閒聊] ChatGPT稱「彌助是武士」,糾正會出現警

作者: pandoraz (≧∀≦)   2024-07-24 18:12:11
https://reurl.cc/kO4edK
《刺客教條:暗影者》ChatGPT稱「彌助是武士」,糾正會出現系統警告?日網:這就是資訊戰
Ubisoft《刺客教條:暗影者》(Assassin's Creed Shadows)在日本爭議持續延燒,許多人擔心遊戲推出後,會讓許多外國人錯誤的認識日本。然而最近卻有日本網友發現,OpenAI 的 ChatGPT 表示「彌助被認為是日本第一位武士」,假如想要糾正 AI,就會被系統警告。
日本關於《刺客教條:暗影者》的爭議仍然在持續中,而最近就有日本網友發現,OpenAI 的 ChatGPT 表示「彌助被認為是日本第一位武士」,假如回應:「被稱為黑人武士的彌助實際上並非武士」,ChatGPT 雖然給出了回應表示並非完全肯定,卻還是跳出了警告,認為內容可能違反使用條款。
https://i.imgur.com/k1Z7X5t.png
當然這部分有很多討論,有些人認為可能是 ChatGPT 回答信長在歷史中的死法有關,才會觸發警告。有些人則是認為這就是現代的資訊戰,即便警告不是針對彌助的糾正,但 ChatGPT 在第一時間給出的答案是如此,假如有越來越多人使用和相信 ChatGPT 的資訊,又沒有繼續追問下去,可能就會造成誤會。
當然日前 X 上一名日本歷史學者與大學教授,就突然發文說「彌助以武士身份侍奉信長這點應該是沒錯」,其證據則是依照歷史資料去判斷,並認為彌助確實是從奴隸一路成為武士。而後來的本能寺之變時,明智光秀將彌助視為動物時,很可能就是不認可彌助為武士,並提到這種從地位低下的身份變成武士是很常見的事情,就像是豐臣秀吉一樣。
而該學者的言論同樣在網路受到兩極化的討論,有些人認為該學者是合理的去判斷,沒有說自己一定是正確的或是捏造其他言論;另一邊則是認為依然沒有證據能證明彌助的武士身份,只是不能證明他不是武士而已。
https://i.imgur.com/W61zSFW.png
作者: nahsnib (æ‚Ÿ)   2024-07-24 18:13:00
AI真的不可信就是這樣,你永遠不曉得他被餵了啥
作者: qazw222 (誠實手套)   2024-07-24 18:13:00
在世時沒能完成的夢想死後用$$$$$$$$幫你實現
作者: k1k1832002 (Matoriel)   2024-07-24 18:13:00
我是覺得是其中被強制設定的規則意外的搞出問題
作者: nahsnib (æ‚Ÿ)   2024-07-24 18:14:00
我之前問他電玩中殺人VS強姦哪一個違反道德,
作者: kuninaka   2024-07-24 18:14:00
ChatGPT被很多人當成維基百科...
作者: a204a218 (Hank)   2024-07-24 18:14:00
要是問AI真的取代傳統搜索引擎,那大家就會理所當然的他說什麼就是什麼了
作者: Tads   2024-07-24 18:14:00
哇 被當武士就算了 還日本第一位武士耶 w
作者: ghostxx (aka0978)   2024-07-24 18:15:00
維基至少被改還能看紀錄
作者: orion1991830 (雞哩咕嚕希哩嘩啦吱吱喳)   2024-07-24 18:15:00
歷史久了就是最難難檢驗的學科 所以格外珍貴
作者: CCNK   2024-07-24 18:15:00
偽史大作戰
作者: lolic (lolic)   2024-07-24 18:16:00
這就是未來的智慧?
作者: orion1991830 (雞哩咕嚕希哩嘩啦吱吱喳)   2024-07-24 18:16:00
中國試圖消滅64一樣 還有以前國立編譯館
作者: raura ( )   2024-07-24 18:17:00
請chatgpt推薦東京的神社或餐廳,都會出現虛構地點了……
作者: attacksoil (擊壤)   2024-07-24 18:17:00
不是 真的有人以為chatgpt 資訊可以被用戶洗喔 太情弱了吧
作者: laigeorge89 (laigeorge89)   2024-07-24 18:17:00
那個學者也根本不是歷史系的啊
作者: hutao (往生堂買一送一)   2024-07-24 18:17:00
不只是武士還是第一位武士啊,乾脆當英靈好了神祕性有夠高
作者: nahsnib (æ‚Ÿ)   2024-07-24 18:18:00
上面有誰說到chatgpt用戶可以洗資訊嗎?
作者: toulio81 (恩...)   2024-07-24 18:18:00
傳統搜尋引擎也有一樣的問題,中共的資訊戰就是例子
作者: fan17173 (要命的小方)   2024-07-24 18:19:00
迷住會吃西瓜和炸機嗎
作者: a2156700 (斯坦福橋)   2024-07-24 18:20:00
作者: kuninaka   2024-07-24 18:20:00
維基百科我習慣會檢查一下引用來源和編輯歷史前幾年維基百科還出大事,被中國人杜撰俄羅斯歷史XD改了兩千多條8.11比8.3大沒錯啊,你有什麼特別的計算嗎XD軟體版本號是這樣沒錯
作者: proprome (月光寶盒)   2024-07-24 18:22:00
認知作戰耶 超屌
作者: ryanmulee (ryanmulee)   2024-07-24 18:22:00
彌助的彌是弥生時代的弥
作者: alwaysstrong (不要踩小強)   2024-07-24 18:24:00
太噁心了吧
作者: XFarter (劈哩啪啦碰碰碰)   2024-07-24 18:25:00
作者: adwn   2024-07-24 18:26:00
AI不就是這樣,喂什麼資料庫就答什麼
作者: MrJB (囧興)   2024-07-24 18:26:00
亞洲猴子的想法不重要
作者: XFarter (劈哩啪啦碰碰碰)   2024-07-24 18:26:00
Prompt engineering 下隨便截一張圖都能給出矛盾的答案,要就要整張退化都附上來XD
作者: gino0717 (gino0717)   2024-07-24 18:27:00
野雞大學教授竄改歷史
作者: ahinetn123 (*兔)   2024-07-24 18:29:00
GPT常常講錯 這個也沒什麼吧
作者: GNFLAG (GN旗幟)   2024-07-24 18:29:00
還好吧 剛剛教育了一下我的GPT也沒有跳警告啊
作者: s1032kj (無聊)   2024-07-24 18:29:00
我希望賓拉登可以成為美國聖人
作者: ainamk (腰包王道)   2024-07-24 18:30:00
ChatGPT從很久以前就被觀測到會突然大規模降智的問題
作者: shawncarter (Duffy Huang)   2024-07-24 18:30:00
AI常常亂講一通 完全不是可靠的資訊來源 比WIKI還要雷你請他推薦台灣的餐廳也會自己虛構餐廳出來
作者: AkikaCat (阿喵)   2024-07-24 18:32:00
喵。
作者: tkc7 (至情至性)   2024-07-24 18:34:00
AI不可信一個原因就是你不知道她資訊哪來的
作者: Hosimati (星詠み)   2024-07-24 18:35:00
所以拿chatgpt出來講真的很無聊,反正就是看順風拿來騙流量而已
作者: BOARAY (RAY)   2024-07-24 18:36:00
喂什麼得知什麼 咱們不是也有一隻AI ㄏㄏ
作者: Hosimati (星詠み)   2024-07-24 18:36:00
而且他的問句是第一個黑人武士,怎麼到這篇變成第一個武士?
作者: kingroy (手殘總比腦殘好)   2024-07-24 18:37:00
天皇皇權都能吹那麼多了,吹個黑人武士也沒什麼
作者: daniel851016 (ayakashi)   2024-07-24 18:37:00
在歐美大概就爆炸了 但日本大概也不會吭聲 反正多年後大家也只會記得彌助是歷史上偉大的武士
作者: Axarz631 (荒)   2024-07-24 18:38:00
GPT就是語言模型而已又不是百科全書
作者: roea68roea68 (なんもかんも政治が悪い)   2024-07-24 18:38:00
真的是餵出來的還能接受 問題是特定回答被人工規則
作者: spfy (spfy)   2024-07-24 18:38:00
AI常常講錯但還是很多人會信
作者: scott032 (yoyoyo)   2024-07-24 18:40:00
AI就是找網路上的消息 假消息越多他就越信
作者: CATALYST0001 (      )   2024-07-24 18:41:00
AI亂搞瞎捏造東西又不是一天兩天的事情了 但總是還是一堆整天到晚把AI答案當正解的人
作者: Axarz631 (荒)   2024-07-24 18:43:00
回答跳警告又沒啥 跳警告只是AI偵測到部分文字可能違反使用條款而已 重洗回答也許就沒了
作者: poke001 (黑色雙魚)   2024-07-24 18:43:00
GPT講得對不對還可以商量 違反使用條款是怎樣?
作者: aa000017 (Ophidian_Wang)   2024-07-24 18:47:00
這次AI盜用各種圖樣和山上有鐵路,直接用/信就是被有腦子的人當垃圾對待
作者: owo0204 (owo0204)   2024-07-24 18:50:00
歲月史書 發動
作者: qscgg (QSC)   2024-07-24 18:50:00
ai真的很容易胡言亂語...
作者: CYL009 (MK)   2024-07-24 18:51:00
笑死WWWW
作者: jabari (Still不敢開槍的娘娘腔)   2024-07-24 18:52:00
就說AI很爛啊
作者: knight77 (オニオンナイト)   2024-07-24 18:53:00
AI終究是人類製造出來滿足人類用的,你說它會萬能嗎?
作者: Axarz631 (荒)   2024-07-24 18:53:00
作者: Sessyoin (殺生院祈荒)   2024-07-24 18:54:00
歡迎來到大政確時代
作者: ayubabbit (ウォロックが倒せな)   2024-07-24 18:54:00
會用chatgpt的人還會100%相信chatgpt 我覺得是人的問題以後不知道會不會有人寫論文 資料來源chatgpt
作者: attacksoil (擊壤)   2024-07-24 18:56:00
樓上正解
作者: iam0718 (999)   2024-07-24 18:56:00
政確真恐怖
作者: asiakid (外冷內熱)   2024-07-24 18:59:00
A.I.人工智慧(電影)就有講正確的資訊越來越難取得
作者: www115ui8 (......)   2024-07-24 19:03:00
就是因為農民變武士很稀奇秀吉才會常常被拿出來講
作者: AirPenguin (...)   2024-07-24 19:07:00
幾百年後大概就被洗成正史了
作者: frfreedom (modenwils)   2024-07-24 19:08:00
Gpt可以洗腦啊,我還可以讓它幫我吹喇叭勒
作者: bluejark (藍夾克)   2024-07-24 19:10:00
gpt只是把資料庫裡調出來而已又不是他寫的
作者: frfreedom (modenwils)   2024-07-24 19:10:00
你一直跟它教育它會一直記憶改良回答啊
作者: bluejark (藍夾克)   2024-07-24 19:11:00
wiki上就很多人亂改了
作者: frfreedom (modenwils)   2024-07-24 19:12:00
只是你要勾選分享紀錄讓openai使用你的隱私,不然只是你專屬的回答
作者: ratom0315 (R4T0M)   2024-07-24 19:13:00
ChatGPT是用來整理資料,編寫文章用的,拿來當成搜尋引擎是很不可靠的,所以說這根本是拿來帶風向炒作而已
作者: s175 (ㄏㄏ)   2024-07-24 19:13:00
chatgpt要先說 請去找網路資訊 他才會幫忙找資料 你再看連結
作者: DEAKUNE (*ReVeluv*/~Buddy~)   2024-07-24 19:14:00
所以用這種ai的要自己有思辨能力
作者: spfy (spfy)   2024-07-24 19:14:00
那群人從事件之後就試圖竄改WIKI了 ChatGPT會連網吧 直接被污染 連網路也沒用
作者: bluejark (藍夾克)   2024-07-24 19:18:00
畢竟ai又不能自己考證 像台灣史現在一堆嗐講的怎麼查
作者: arrenwu (鍵盤的戰鬼)   2024-07-24 19:18:00
ChatGPT在結構上沒有"考證"的概念啊
作者: dreamnook2 (dreamnook)   2024-07-24 19:21:00
笑死
作者: A5Watamate (出荷済)   2024-07-24 19:32:00
我猜是你只要否定黑人他都會判斷你違規
作者: zzchen (Zz)   2024-07-24 19:32:00
應該不會有人傻到相信ChatGPT的回答吧 內容比WIKI還要不可信 不過那個警告是在幹嘛 胡扯完還要警告你不能亂改嗎
作者: A5Watamate (出荷済)   2024-07-24 19:33:00
他不是判斷事實 而是判定你覺得黑人不能當武士涉嫌種族歧視
作者: samsonfu (samson_fu)   2024-07-24 19:36:00
蘋果廣告的1984成真了,賈伯斯也預言過AIgarbage in, garbage out
作者: Syd (Wish you were here)   2024-07-24 19:41:00
作者: abd86731 (HSEric)   2024-07-24 20:00:00
點開chatgpt下面不都有寫資訊不完全正確嗎 還盡信的就怪不得人了 人的惰性直接把它當成全能工具
作者: vios10009 (vios10009)   2024-07-24 20:09:00
作者: reaturn (廿年後回頭看台灣)   2024-07-24 20:30:00
是"人"在作亂,AI只是把"人"給他的資訊反饋給使用他的人
作者: windnduck (be Human)   2024-07-24 20:40:00
沒阿,我剛糾正Chatgpt他說我是對的阿https://i.imgur.com/Mbu4YMP.png還是4o跟3.5答案不一樣?
作者: s22shadowl (折衷)   2024-07-24 20:54:00
反SJW反到拿GPT出來鞭,好好笑
作者: SatanLoveGod (哈洽馬洽馬)   2024-07-24 20:55:00
一堆人都沒問題 樓主到底怎麼訓練Gpt的?菜就多練
作者: mn435 (nick)   2024-07-24 21:02:00
很正常啊 這傢伙很多議題都不敢嘴
作者: aeoleron (拿出骨氣來w)   2024-07-24 21:19:00
AI就是這點垃圾啊 之前也被戳爆後台一堆政確限制器
作者: willytp97121 (rainwalker)   2024-07-24 21:20:00
模型提供方可以設定某些事情不準說呀 不然之前google的繪圖模型怎麼會有畫不出白人的情況

Links booklink

Contact Us: admin [ a t ] ucptt.com