我們現在有電腦可以做猴子的工作了。
在資訊理論裡面有一個重要概念,叫做Shannon Entropy。一個硬幣有正反兩面,如果以
0 表示頭像的一面,1表示數字的一面(相反也可以喔), 那麼一個硬幣可以是0或是1
,這個時候一個硬幣的資訊量叫做一個單位entropy,或是一個bit。
那如果有兩個硬幣呢?(0,0)、(0,1)、(1,0)、(1,1)這四種可能性,所以是兩個單位
entropy,或是2bits。
今天英文版聖經有3,116,480個英文字母,而字母表alphabet加上空白字元有27個符號可
以選擇,所以在這3,116,480可以填入的空間中,每一個空間都有27種可能性,因此加總
起來會有27^3116480種可能性。
這個數字有位數呢?
算式:log 27^3116480 base 10 + 1
因為log 10 = 1,log 100 = 2 ….. 所以取log 加一就可以得到幾位數。我用python算
了這個東西,電腦要算五六秒鐘,但是最後結果是,這個算是有4460817位數,也就是百
萬位數。
然後英文版聖經是這麼多可能性中,唯一一個組合,所以每一次電腦在猜的時候都有一個
機率在,可以表示為1/(27^3116480)。
所以資訊理論跟我講的事情是,兩篇文章碰巧長得一模一樣的機率是很低的。