我現在有一個網路實驗,這個實驗總共會跑100次,測出這100次所花費的
時間是多少,然後再算出這100次的平均是多少。我在做實驗時,會使用 Linux 底下的
netem 工具去模擬 packet loss rate。
例如:
假設我設定packet loss rate = 25%,這表示每次在傳送封包時,會有25%的機率遺失掉
,遺失掉後會再重傳一次。
跑出來的平均數有可能是下面這樣:
跑第一個100次的平均是 1.57 second
跑第二個100次的平均是 2.43 second
跑第三個100次的平均是 70.33 second
跑第四個100次的平均是 0.68 second
可以看到每次跑出來的平均數都不一樣,有時候非常高,有時候又很低,教授問為什麼每
次都不一樣,
我的解釋是因為我有設定packet loss rate = 25%,
當在測試時,如果每次封包都剛好loss掉,則測出來的時間就會變得很高;而如果每次封
包都剛好沒有loss,則測出來的時間就會很低。
我想請問關於packet loss rate的解釋,我這樣解釋是對的嗎?
因為教授好像不是很滿意這個解釋,他希望每次出來的時間都要差不多。