1.媒體來源:
科技新報
2.記者署名:
黃 嬿
3.完整新聞標題:
AI 伺服器用電量等於一小國,研究:沒必要每個 App 都有 AI
4.完整新聞內文:
人工智慧將會成為人類的第二大腦,但也是頭碳排怪獸。數據科學家分析,到 2027 年 AI 伺服器每年使用的電力相當於阿根廷、荷蘭和瑞典等小國一年的用電量,而且這還是保守估計,作者提醒,每個人應該認真思考 AI 的必要性。
阿姆斯特丹自由大學商業與經濟學院博士候選人 Alex de Vries,他也是研究公司 Digiconomist 創辦人,定期公布比特幣能源消耗指數。這次他想知道 AI 伺服器的電力消耗量,但資料太少,他只能透過 Nvidia A100 伺服器預計銷量計算電力消耗,Nvidia 占 AI 晶片市場 95%。
研究基於 2027 年 Nvidia 可能會出貨 150 萬台此類伺服器,乘以伺服器的用電量,估計屆時 AI 伺服器電力消耗與荷蘭、瑞典等小國一年用電量一樣多。研究中特別強調推理階段,他說先前研究關注模型訓練階段的用電量,但他認為,推理階段消耗的能源其實更可觀。
以 ChatGPT 為例,OpenAI 需要 3,617 台基於 Nvidia HGX A100 平台的伺服器,總共配備 28,936 個 GPU,等於每天的能源需求為 564 MWh。相較之下,GPT-3 模型訓練階段估計所使用的電量為 1,287 MWh。
研究假設是市場對 AI 的興趣不減,以及 AI 晶片的可用性,但是作者認為,由於 Nvidia 生產能力有限,因此當前的硬體和軟體全面採用 AI 不太可能迅速發生。但即使 Nvidia 晶片供應有限是 AI 成長的瓶頸,企業也不會停止 AI 發展,現在都急於尋找替代來源。
一些專家已呼籲企業在設計下一代 AI 硬體和軟體時應考慮電力消耗,但專家悲觀認為,市場競爭激烈,企業不可能有餘裕考慮環境影響。除了電力問題,為了冷卻資料中心的水量也非常可觀,研究發現,每次使用聊天機器人回答問題,就需要 1 瓶水來冷卻。根據微軟公布的資訊,由於資料中心冷卻需求增加,去年用水量大增 34%。Gogole 也報告 20% 的成長,加州大學研究人員認為是生成式 AI 使用增加導致。
加州新法逼企業更透明
加州與氣候有關的法案一直走在世界之先,最近加州州長 Gavin Newsom 簽署兩項重要的氣候揭露法,規定所有在加州開展業務的大公司,包括 OpenAI 和 Google 等 AI 密集型公司在氣候風險資訊方面都必須更加透明。
法案要求所有全球年收入超過 10 億美元的私人公司,2026 年揭露營運產生碳量,到 2027 年必須揭露供應鏈中產生的碳量。2026 年,年收入超過 5 億美元的公司,也必須公布與氣候相關的財務數據。外媒評論指出,該規定在美國尚屬首例,可能有上萬家公司受到影響,這些法律也可能產生超出州界的影響。
研究作者呼籲必須針對 AI 的永續性提出質疑,科技公司需要提高透明度,並為整個 AI 開發制定更謹慎的方法,由於 AI 不能解決所有問題,人們也應該思考應用程式是否真的都需要 AI。
5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體: https://technews.tw/2023/10/12/ai-server-power-consuming-is-huge/
6.備註:
不過比較起來 AI總比挖礦稍微有用多了
之前全世界把電力浪費在挖虛擬貨幣真的蠻怪的
希望AI除了聊天 繪圖之外
能對普通人的生活更有幫助