亚洲久热中文字幕在线,中文字幕无线观看在,中文字幕在线不卡一区二区,又污又爽又黄的网站,国产乱码卡一卡2卡三卡四


核能是最好的能源選擇嗎?

 撰文 |飲馬流花河

 出品 | 零碳知識局


上個月在瑞士達沃斯世界經(jīng)濟論壇年會上,OpenAI首席執(zhí)行官薩姆·奧特曼表示:人工智能行業(yè)正在走向能源危機。奧特曼警告說,下一波生成式人工智能系統(tǒng)將消耗比預期更多的能源,而能源系統(tǒng)將難以應對。

 

 

無獨有偶,在博世全球互聯(lián)會議上進行的電話問答環(huán)節(jié)中,最近被提名為諾貝爾和平獎候選人的埃隆·馬斯克表示:芯片短缺可能已經(jīng)過去了,但人工智能和電動汽車的迅速擴張將導致明年電力和變壓器供應出現(xiàn)緊缺。

 

馬斯克強調(diào)了人工智能計算量的指數(shù)級增長,每六個月似乎增加了10倍,盡管這種高速增長顯然無法永遠持續(xù)下去,否則將超過宇宙的質(zhì)量,我從未見過任何技術的發(fā)展速度比這更快。埃隆·馬斯克表示。

 

兩個人其實說了一個意思,人工智能發(fā)展得太快,電不夠用了。

 

生成式人工智能模型離不開芯片的算力支持。進入三月份,英偉達市值一夜?jié)q超2600億元,市值超2萬億,從側(cè)面印證了AI發(fā)展對算力的高需求。

 

英偉達股價變化

 

黃仁勛稱,對 AI 所依賴的計算能力的需求仍然是極其巨大的,全球范圍內(nèi),企業(yè)、行業(yè)和各國的需求都在激增。據(jù)悉,英偉達的業(yè)績爆發(fā)得益于數(shù)據(jù)中心業(yè)務的增長,特別是生成式人工智慧和語言模型的訓練和推理的推動。

 

作為整個ai大潮的算力基礎,英偉達的A100H100GPU去年曾一芯難求,專業(yè)人士表示:訓練一個類似于GPT—3.5左右的大語言模型大概需要1萬張A100芯片,硬件投入就需要20億元。

 

算力的運行和生產(chǎn)往往離不開電力,據(jù)微軟數(shù)據(jù)中心技術的預測,2024年底,全球部署的百萬量級的H100 GPU將使得英偉達的總耗電量超過亞利桑那州鳳凰城的所有家庭用電量,僅次于德克薩斯州休斯敦。

 

H100 GPU的最大功耗達到700W,以利用率61%計算,每顆GPU每年將消耗約3,740kWh的電力。到2024年底,全球范圍內(nèi)將有350萬個H100 GPU投入使用,它們每年將消耗總計13,091.82 GWh的電力。這一天文數(shù)字相當于立陶宛等國家的全年耗電量。

 

不能忽略的是,電力消耗又與碳排放息息相關,可是之前,AI行業(yè)的環(huán)境和碳排放成本被科技公司淡化和否認。

 

奧特曼和馬斯克兩位科技領袖的吶喊不僅揭示了AI行業(yè)的能源危機,也引發(fā)了全球研究人員、監(jiān)管機構(gòu)和行業(yè)巨頭們對生成式人工智能環(huán)境影響的大討論。

 

21日,馬薩諸塞州參議員愛德華·馬基領導的美國民主黨人提交了《2024年人工智能環(huán)境影響法案》。該法案要求美國國家標準與技術研究所與學術界、行業(yè)和公民社會合作制定評估人工智能環(huán)境影響的標準,預示著對AI行業(yè)的環(huán)境監(jiān)管已經(jīng)箭在弦上。

 


 

AI的另一面

 

大語言模型的開發(fā)是一場瘋狂的燒錢游戲,縱觀人工智能行業(yè)的產(chǎn)業(yè)鏈,從基礎層的硬件、數(shù)據(jù)輸入計算,到技術層的算法模型開發(fā),再到應用層的商業(yè)化落地都需要大量的資金、人力投入。

 

為了獲得更優(yōu)的智能表現(xiàn),語言模型逐漸朝著大型化方向發(fā)展,投喂的學習數(shù)據(jù)呈指數(shù)級增長,參數(shù)也越來越多:GPT-3.5 訓練參數(shù)為1750億,GPT-41.8 萬億,亞馬遜發(fā)布的全新大模型Olympus參數(shù)高達2萬億,訓練和調(diào)試的能源損耗將不斷攀升。

 

更強大的GPT-5正在訓練中

 

簡單而言,AI越智能,耗能就越多。

 

例如,來自《焦耳》雜志上的一項研究表明,到2027年,生成式人工智能所消耗的能源能為荷蘭大小的國家提供一年的電力,相當于約85-134太瓦時(TWh)。參數(shù)更多、功能更為強大的人工智能將給人類的能源供應產(chǎn)生巨大壓力。

 

這意味著在幾年內(nèi),大型人工智能系統(tǒng)需要的能源量可能將達到整個國家的用能水平,要實現(xiàn)向全面智能時代過渡,甚至建成元宇宙,能源消耗不可估量。

 

近期發(fā)表在《自然》雜志上的一篇文章指出,由生成式人工智能驅(qū)動的搜索所消耗的能源是傳統(tǒng)網(wǎng)絡搜索的四到五倍,OpenAI在加利福尼亞州舊金山創(chuàng)建的聊天機器人ChatGPT已經(jīng)消耗了33,000個家庭的能源。

 

此外,生成式人工智能系統(tǒng)需要大量的淡水來冷卻其處理器和發(fā)電,耗水量是一個無底洞!

 

在愛荷華州西德莫因市,一個巨大的數(shù)據(jù)中心群為OpenAI的最先進模型GPT-4提供服務。當?shù)鼐用竦囊豁椩V訟顯示,OpenAI完成對該模型的訓練之前的20227月,該數(shù)據(jù)集群使用了該地區(qū)約6%的水資源。

 

加利福尼亞大學河濱分校和德克薩斯大學阿靈頓分校的研究人員在一篇名為《讓人工智能更加節(jié)水》的論文中發(fā)現(xiàn),用于訓練GPT-3所需的清潔淡水量相當于填滿核反應堆冷卻塔所需的水量。

 

訓練GPT-3耗費的清潔淡水量與其他活動耗水量的對照圖

 

ChatGPT在與用戶進行大約25-50個問題的交流時需要一瓶500毫升的水。

 

根據(jù)公司的環(huán)境報告,谷歌和微軟準備他們的Bard和必應大語言模型時,兩家公司的用水量一年內(nèi)分別增加了20%34%。文章稱:全球生成式人工智能對水資源的需求到2027年可能達到英國的一半水平。

 


 

追蹤碳足跡

 

人工智能產(chǎn)業(yè)經(jīng)常與石油業(yè)相提并論:數(shù)據(jù),一旦被發(fā)掘和精煉,便如同石油,能夠轉(zhuǎn)化為極為珍貴的財富。但就像石油一樣,大模型訓練及其使用所產(chǎn)生的碳排放量觸目驚心。

 

有許多因素決定了人工智能系統(tǒng)的碳排放量,包括模型中的參數(shù)數(shù)量(業(yè)界普遍認為500—600億參數(shù)是大模型智能涌現(xiàn)的門檻)、數(shù)據(jù)中心的電力使用情況、電網(wǎng)碳排放量、電力使用效率,以及電網(wǎng)的碳強度(多少克二氧化碳被釋放以產(chǎn)生一千瓦時的電力)。

 

但由于科技公司對訓練數(shù)據(jù)的披露極為有限,針對大模型碳足跡的研究屈指可數(shù),其中AI初創(chuàng)公司Hugging Face以及馬薩諸塞大學阿默斯特分校的兩項研究對大模型碳足跡進行了最全面的分析。

 

馬薩諸塞大學阿默斯特分校的研究對幾種流行的大型AI模型(Transformer、ELMo、BERT以及GPT-2)的訓練過程進行了生命周期碳排放評估。他們將每個模型在單個GPU上訓練一天以測量其能耗,再根據(jù)模型原論文中記錄的訓練時間來計算整個訓練過程中的總能耗。

 

研究發(fā)現(xiàn),該過程可能會產(chǎn)生超過626,000磅的二氧化碳等價排放——這幾乎是一輛美國汽車在其整個使用壽命內(nèi)排放量的五倍(包括汽車制造過程)。

 

不同參數(shù)的生成式大模型一次訓練的碳排放、成本、耗電量 

來源《麻省理工科技評論》、馬薩諸塞大學阿默斯特分校

 

從圖表中可以看出,碳排放與模型的大小成正比。智能模型之所以耗能巨大,正是因為其訓練依賴從互聯(lián)網(wǎng)收集的龐大數(shù)據(jù)集,訓練的參數(shù)越多,大模型的性能就越強大,與之對應的算力需求也會成倍增長,使得用于訓練的GPU功耗陡然增加,用電量激增。

 

并且,當采用額外的調(diào)節(jié)步驟以提升模型最終的準確率時,成本和碳排放將急劇上升。

 

此外,研究者指出,這還只是開始,實際情況中,人工智能公司更可能從零開始開發(fā)新模型或者將現(xiàn)有模型調(diào)整至新的數(shù)據(jù)集,這兩種情況都可能需要更多的訓練和調(diào)節(jié)輪次,也意味著更多碳排放。

 

在實踐中,開發(fā)和測試一個符合發(fā)布標準的模型,需在六個月時間內(nèi)訓練4,789個模型。這一過程產(chǎn)生的二氧化碳當量超過78,000磅。

 

這意味著大量人工智能開發(fā)忽視了研發(fā)效率,為追求最優(yōu)模型結(jié)果而不惜大量燒錢,許多能源資源都被浪費了,之所以如此,是因為能夠獲得充足計算資源的公司和機構(gòu)能夠借此獲得競爭優(yōu)勢。

 

AI初創(chuàng)公司Hugging Face的研究則評估了模型在整個生命周期內(nèi)的排放量,而不僅僅是大模型訓練過程中的排放。這一研究也被斯坦福大學研究機構(gòu) HCAI 一年一度的 AI Index 報告所引用。

 

Hugging Face對其自研的大型語言模型BLOOM進行了整體排放量的估算,包括:在超級計算機上訓練模型所消耗的能源總量、制造超級計算機硬件及維持其計算基礎架構(gòu)所需的能源,以及一旦BLOOM發(fā)布后的運行能源消耗。同時根據(jù)公開數(shù)據(jù)估算了另外三個熱門大模型的碳足跡。

 

研究發(fā)現(xiàn),四個大語言模型中,GPT3模型的訓練耗電量達到了驚人的1287MWH,碳排放502噸,其巨額排放的部分原因是其使用了較舊、效率較低的硬件進行訓練。

 

圖源:斯坦福大學 AI Index report 2023

 

這是一個人一生用電量的12倍多。相當于內(nèi)蒙古(碳排放量全國top1)的人均碳排放的20倍,和騰訊2021年的供應鏈與自身運營產(chǎn)生的碳排放接近。

 

當與現(xiàn)實生活做對照時,AI的能耗更加觸目驚心。例如,表格中參數(shù)最小的BLOOM訓練所排放的碳是美國人一年平均碳排放量的1.4倍。是一個乘客從紐約到舊金山的飛機往返行程的25倍。BLOOM訓練所消耗的能量足以為普通美國家庭提供41年的電力。

 

圖源:斯坦福大學 AI Index report 2023

 

Hugging Face的估算結(jié)果顯示,BLOOM訓練過程導致了25噸二氧化碳的排放。然而,當考慮到訓練所用計算機設備的制造排放、數(shù)據(jù)中心等基礎設施能耗以及訓練完成后實際運行排放等范圍三排放時,碳排放量達到了50噸。

 

BLOOM推出后,Hugging Face估計使用該模型每天會產(chǎn)生大約19公斤的二氧化碳排放,這與一輛新車行駛大約54英里產(chǎn)生的排放相似。

 

盡管對于單一模型而言,50噸的二氧化碳排放聽起來可能很多——相當于大約60次倫敦至紐約之間的飛行,但與同等大小的其他模型相比,其排放要低很多。

 

因為BLOOM在一個主要依賴核能的法國超級計算機上進行訓練,而核能不會產(chǎn)生二氧化碳排放。

 

這說明,尋找穩(wěn)定、清潔的能源供給對于科技巨頭們的AI事業(yè)極為重要。

 

 

誰是能源突破?

 

高科技企業(yè)必須實現(xiàn)綠色轉(zhuǎn)型已經(jīng)成為全球共識。實際上全球科技巨頭很早就意識到,再先進的算力都要在能源面前低下頭顱,接受綠色改造。

 

早在2019年,Amazon就宣布到2024年使用80%的可再生能源,到2030年使用100%可再生電力,到2040年實現(xiàn)零碳排放。亞馬遜承諾到2030年,利用電動車和生物燃料實現(xiàn)所有出貨量的50零碳排放,Google宣布到2030年實現(xiàn)所有的數(shù)據(jù)中心和辦公領域全部實現(xiàn)無碳能源的供給。

 

蘋果公司走在最前列,其數(shù)據(jù)中心和Apple store都使用了100%的可再生能源電力。并承諾在2030年之前,會實現(xiàn)供應鏈和產(chǎn)品100%的碳中和。

 

然而無論是可再生能源還是化石能源,在穩(wěn)定度和能量密度方面均不如核能,這種差距在人工智能高速發(fā)展、能耗巨大的未來會更加明顯。

 

與其他巨頭青睞可再生能源不同,OpenAI 和微軟押注的便是核聚變。

 

2021年,奧特曼向美國私有核聚變公司Helion Energy投資了3.75億美元。

 

Helion Energy聲稱正在建設世界上第一座核聚變發(fā)電廠。

 

目前,該公司已經(jīng)簽署了一項電力購買協(xié)議,未來幾年將用核聚變?yōu)槲④浱峁┠茉础?/span>

 

Helion Energy核聚變設備

 

該協(xié)議將使世界上第一臺商業(yè)核聚變發(fā)電機接入華盛頓的電網(wǎng)。其目標是產(chǎn)生至少50兆瓦的電力,比美國頭兩個海上風電場裝機容量還多42兆瓦。

 

奧特曼告訴路透社,沒有能源的突破,就無法實現(xiàn)目標。他說,這激勵我們更多地投資于核聚變技術。

 

但大多數(shù)專家認為,核聚變不會對到2050年前減少碳排放以應對氣候危機的關鍵目標做出重大貢獻。

 

Helion公司最樂觀的估計是,到2029年,其將產(chǎn)生足以為40,000個美國家庭提供能源的能量,目前來看,遠水解不了近渴。

 

OpenAI背后的微軟一直是核能的擁躉。該公司在第28屆聯(lián)合國氣候變化大會上發(fā)布了關于先進核能和核聚變能源的政策簡報,表示先進核能和核聚變技術潛力巨大,它們可以提供安全、可靠、可擴展的無碳電力,并與可再生能源互相補充,滿足世界各地不同的能源需求。

 

技術路線上,微軟更青睞小型模塊化反應堆(SMR),因其占地面積較小,安裝靈活,無需頻繁地更換燃料,比大型動力反應堆更便宜;SMR不僅適用于傳統(tǒng)的發(fā)電廠,還特別適合部署于能源需求日益增長的數(shù)據(jù)中心。

 

202312月,微軟聘任了兩位核能相關經(jīng)理,負責領導SMR和微反應器集成的技術評估,旨在利用核能為微軟云和人工智能所在的數(shù)據(jù)中心提供動力。

 

國際原子能機構(gòu)資料顯示:SMR 燃料需求少,與傳統(tǒng)發(fā)電廠12年換料周期相比,基于 SMR 的發(fā)電廠可能需要較少的換料頻率,每 3 7 年一次。一些 SMR 設計可在不加料的情況下運行長達 30 年。

 

中核集團旗下中國核電投資控股中核海南多用途模塊式小型堆科技示范工程玲龍一號

 

SMR 還可以與混合能源系統(tǒng)中的可再生能源配對并提高其效率。這些特點使 SMR 在清潔能源轉(zhuǎn)型中發(fā)揮關鍵作用,同時也幫助各國實現(xiàn)可持續(xù)發(fā)展目標(SDG)。

 

可以說SMR完美符合高能量密度、靈活安裝、便宜等能源需求。中、英、美均在緊密布局。

 

但是與傳統(tǒng)反應堆相比,SMR需要更多的高濃縮鈾燃料“HALEU”,不巧的是,俄羅斯是HALEU的全球主要供應國。

 

此外,美國在SMR方面審批手續(xù)極為繁雜,目前還沒有一項SMR項目投入正式建設,直到20228月,美國核管理委員會(NRC)才審查通過了紐斯凱爾電力公司(NuScale Power)的一項SMR設計,這是NRC認證的首個SMR設計。

 

然而,該SMR項目卻于2023118日被宣布終止建設,原因是大多數(shù)潛在用戶不愿承擔開發(fā)此類項目的風險。

 

據(jù)美國媒體Axios報道,微軟已經(jīng)與加拿大公用事業(yè)公司安大略發(fā)電公司(Ontario Power Generation)達成協(xié)議,購買清潔能源積分,該公司有望成為北美第一家部署SMR的公用事業(yè)公司。

 

目前絕大多數(shù)SMR還處于概念設計階段,技術路線、安全、審批、公眾接受度均需要時間的磨合。

 

點贊(0)

評論列表 共有 0 條評論

暫無評論
立即
投稿
發(fā)表
評論
返回
頂部