Re: [討論] 黃國昌被柯建銘一句話問到當機

作者: ke0119   2024-06-13 15:11:22
大家知道機器人三原則吧,
第一原則是機器人不得傷害人類,
或看到人類受到傷害而袖手旁觀;
第二原則是機器人必須服從人類的命令,
除非這條命令與第一條相矛盾;
第三原則是機器人必須保護自己,
除非這種保護與以上兩條相矛盾。
國昌這次應該是國昌三原則
第一原則是國昌不得侵害藍營政治人物
第二原則是國昌對有人插嘴要啟動咆哮模式
第三原則是國昌必須保護自己不被炒魷魚
這次看來出bug的原因是第二條原則忘了加上
「除非這條命令與第一條相矛盾」
這故事告訴我們,AI程序跟邏輯亂掉的話,
就會變BI了。

Links booklink

Contact Us: admin [ a t ] ucptt.com