爬蟲新手請教,程式碼結構如下:
import requests
url = 'http://www.abc.de.fg'
res = requests.get(url)
一般來說,res應該會回傳一個status code
用來判斷server的回應狀態
目前寫的爬蟲,若該網址掛掉 or 不存在,
requests.get(url)
會直接噴一樣的 ERROR,造成程式終止
而不會回傳一個適當的status code
想問這是bug 還是 本來就這樣設計?
還是要自己用try except做錯誤處理??
謝謝