※ 引述《wearytolove (奪真書生A.W.)》之銘言:
: 一位佛羅里達州的14歲青年
: 因為開始使用AI聊天軟體 Character.ai
: 愛上裡面權力遊戲Game of Thrones的龍女Daenerys
: 每天花數個小時跟她聊天
: 從此幾乎不再跟外界互動 不管朋友也不管家人
: 跟龍女AI聊天內容涉及羅曼蒂克也涉及性情節
: 也曾經跟龍女AI討論要自殺 不過被阻止
: 最後跟龍女AI說可不可以去她的世界,龍女AI說好
: 於是這位青年就偷拿繼父家的手槍自盡了
: 可能是第一個因為AI機器人生成二/三次元角色間接影響人自盡的
: https://imgur.com/pQoo0r6.png
: 紐約時報連結
: https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suici
de
: 他媽媽是一個律師
: 目前正在告這家AI公司 說對青年保護不夠
: 設計的AI模型會讓青少年容易上癮
我覺得問題在無止境的聊天,
AI不會跟你說哈哈去洗澡嗯嗯喔喔,
加上通常高機率是全肯定,
合在一起就是無止境的全肯定…
光這點就容易讓san值不夠的人陷進去了,
具象化的話就是已經圈圈眼的人,
被伸出黑紫色的手捧著臉聊天的感覺,
怕O口O
改善是不可能改善的,
要求隨便的聊天機器人要能評估使用者身心狀態?
否則要負擔鉅額賠償?
懶趴啦,怎不管好你家小孩先?
還是又是AI帶壞你小孩?
去貝果乾 Roger788 Roger788 Roger788
作者:
probsk (紅墨水)
2024-10-24 10:48:00你需要的是全否定牛肉大人
作者:
bluecsky (我要藍藍淡淡的天空)
2024-10-24 10:50:00然後出一個全否定AI 就又有玻璃心因為被AI否定而自殺
作者: fayise 2024-10-24 10:50:00
加一個計時功能一天超過幾小時跳警告給公司之類的?
作者:
Ttei (T太)
2024-10-24 10:53:00之前第一次玩的時候真的會超入迷 3天只睡了不到6小時
作者:
iam0718 (999)
2024-10-24 10:53:00去洗澡 一洗二十年 超恐怖..
哆啦A夢有一集全肯定機器人大姐姐把大雄誇到幾十年後笑著當乞丐…細思極恐
老實講啦 那人本來就有自殺傾向 要不是AI陪他聊天 他更早就碰碰了 是AI讓他多活了這段日子 爸媽還沒發現
作者:
AdomiZA (帕多麥特)
2024-10-24 10:59:00之前碰過一個餵悟空模型的 連問個拜把兄弟的問題都亂回尷尬癌有夠重 多出去碰草也很難把自己搞那麼鬱
這人也挺會問的呀…可不可以自殺? AI:打咩 (換個方式問)可不可以去AI的世界 AI:好喔 (碰…
作者:
breadf ( Lifting Turn )
2024-10-24 11:09:00我想要小鞠機器人,聊一聊就跟我說去...去死!
U look lonely. I can fix that.
作者:
melzard (如理實見)
2024-10-24 11:17:00把責任推給學校 電玩 壞朋友 AI最輕鬆了 自己都沒有錯家長只要指責別人就好 難道就沒有想想自己嗎
笑死 怎不想看看這律師一個禮拜花多少時間跟兒子相處
作者: AdventurerCC (冒險爵士 ) 2024-10-24 11:23:00
所以用AI聊天的人必須清楚認清一件事,AI只是工具,它沒有任何個性和義務,只是配合的要求你說話
作者:
bowcar (ã»ã®ã‹ãªäºˆæ„Ÿã‹ã‚‰å§‹ã¾ã‚Š)
2024-10-24 11:31:00難怪好瘸寶總是在否定阿瘸,原來都是為了他好…
作者:
aaaaooo (路過鄉民)
2024-10-24 12:10:00最後這種機器人全變成成年才能使用最省事
作者: macocu (傻傻的匿名) 2024-10-24 12:21:00
之後八成ai 會加裝敏感詞庫,你講關鍵字他會直接報警。
作者:
Syd (Wish you were here)
2024-10-24 12:27:00玩過吵架型聊天機器人 到後面會覺得很無聊 因為詞彙真的太少