根據(jù)《紐約客》雜志的報道,OpenAI的ChatGPT聊天機器人每天消耗超過50萬千瓦時的電力,用于處理約2億個用戶請求,相當于美國家庭每天用電量的1.7萬多倍。隨著生成式人工智能的廣泛應用,預計到2027年,整個人工智能行業(yè)每年將消耗85至134太瓦時的電力,這顯示了AI技術對電力資源的巨大需求。
隨著人工智能技術的發(fā)展,對芯片的需求急劇增加,進而帶動了電力需求的激增。全球數(shù)據(jù)中心市場的耗電量已經(jīng)從十年前的100億瓦增加到如今的1000億瓦水平。根據(jù)美國Uptime Institute的預測,到2025年,人工智能業(yè)務在全球數(shù)據(jù)中心用電量中的占比將從2%增加到10%。
生成式人工智能帶來了許多創(chuàng)新,但也伴隨著處理性能和功耗方面的高昂成本。馬斯克曾預計,未來兩年可能從“缺硅”轉變?yōu)?ldquo;缺電”,電力短缺可能會成為人工智能發(fā)展的阻礙。他表示,電力短缺可能會像最近的芯片短缺一樣對科技和汽車行業(yè)造成嚴重影響。
來源:環(huán)球網(wǎng)科技
評論