作者:
ke0119 2024-06-13 15:11:22大家知道機器人三原則吧,
第一原則是機器人不得傷害人類,
或看到人類受到傷害而袖手旁觀;
第二原則是機器人必須服從人類的命令,
除非這條命令與第一條相矛盾;
第三原則是機器人必須保護自己,
除非這種保護與以上兩條相矛盾。
國昌這次應該是國昌三原則
第一原則是國昌不得侵害藍營政治人物
第二原則是國昌對有人插嘴要啟動咆哮模式
第三原則是國昌必須保護自己不被炒魷魚
這次看來出bug的原因是第二條原則忘了加上
「除非這條命令與第一條相矛盾」
這故事告訴我們,AI程序跟邏輯亂掉的話,
就會變BI了。
Links booklink
Contact Us: admin [ a t ] ucptt.com