近期,非營(yíng)利性人工智能研究機(jī)構(gòu)Epoch AI公布了一項(xiàng)關(guān)于ChatGPT能耗的新研究成果,挑戰(zhàn)了之前廣泛流傳的能耗認(rèn)知。據(jù)此前報(bào)道,ChatGPT回答一個(gè)問(wèn)題所需的能耗約為3瓦時(shí),這一數(shù)字是谷歌搜索的10倍。然而,Epoch AI的研究人員對(duì)此提出了不同看法。
Epoch AI通過(guò)對(duì)OpenAI最新的默認(rèn)模型GPT-4o進(jìn)行深入分析,發(fā)現(xiàn)ChatGPT的平均查詢(xún)能耗實(shí)際上約為0.3瓦時(shí),遠(yuǎn)低于許多日常家用電器的能耗水平。Epoch AI的數(shù)據(jù)分析師約書(shū)亞?尤在接受采訪時(shí)表示,與日常使用的電器、調(diào)節(jié)室內(nèi)溫度或駕駛汽車(chē)相比,ChatGPT的能耗其實(shí)并不顯著。
在AI行業(yè)快速發(fā)展的背景下,其能耗問(wèn)題及對(duì)環(huán)境的影響日益受到公眾關(guān)注。上周,超過(guò)100個(gè)組織聯(lián)合發(fā)表公開(kāi)信,呼吁AI行業(yè)和監(jiān)管機(jī)構(gòu)確保新建AI數(shù)據(jù)中心不會(huì)過(guò)度消耗自然資源,并避免依賴(lài)不可再生能源。
約書(shū)亞?尤指出,他開(kāi)展這項(xiàng)分析的原因是之前的研究存在過(guò)時(shí)的問(wèn)題。例如,得出3瓦時(shí)能耗估計(jì)的研究報(bào)告是基于OpenAI使用較老、效率較低的芯片來(lái)運(yùn)行其模型的假設(shè)。尤表示,雖然公眾普遍認(rèn)識(shí)到AI在未來(lái)幾年將消耗大量能源,但當(dāng)前AI的能耗情況并未被準(zhǔn)確描述。他還指出,之前3瓦時(shí)的估算數(shù)據(jù)是基于較舊的研究,且初步計(jì)算顯示這一數(shù)字可能過(guò)高。
盡管Epoch AI的0.3瓦時(shí)數(shù)據(jù)是一個(gè)估算值,因?yàn)镺penAI尚未公布足夠細(xì)節(jié)來(lái)進(jìn)行精確計(jì)算,但這一研究仍然具有重要意義。同時(shí),該分析并未考慮ChatGPT的圖像生成、輸入處理等額外功能所消耗的電量。尤承認(rèn),帶有長(zhǎng)文件附件等“長(zhǎng)輸入”的ChatGPT查詢(xún)可能會(huì)比普通問(wèn)題消耗更多電量。
然而,尤也預(yù)計(jì)ChatGPT的基礎(chǔ)能耗未來(lái)可能會(huì)增加。他指出,AI將變得更加先進(jìn),訓(xùn)練這些AI可能需要更多能源。未來(lái)的AI可能會(huì)被更頻繁地使用,并處理更復(fù)雜、更多的任務(wù)。OpenAI和整個(gè)AI行業(yè)的關(guān)注點(diǎn)也在向推理模型轉(zhuǎn)移。與GPT-4o等能夠近乎即時(shí)響應(yīng)的模型不同,推理模型需要花費(fèi)更多時(shí)間來(lái)“思考”答案,這一過(guò)程會(huì)消耗更多計(jì)算能力,從而導(dǎo)致更高能耗。
尤表示,推理模型將承擔(dān)越來(lái)越多舊模型無(wú)法完成的任務(wù),并為此生成更多數(shù)據(jù),這都需要更多數(shù)據(jù)中心支持。盡管OpenAI已經(jīng)開(kāi)始推出更節(jié)能的推理模型,如o3-mini,但目前來(lái)看,這些效率提升似乎不太可能完全抵消推理模型“思考”過(guò)程以及全球AI使用量增加所帶來(lái)的額外能耗需求。