《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 揭秘 ChatGPT 背后的“代價”:碳排放量大幅增加

揭秘 ChatGPT 背后的“代價”:碳排放量大幅增加

2023-02-14
來源:鳳凰科技 (簫雨)
關(guān)鍵詞: ChatGPT 碳排放 人工智能 微軟

北京時間 2 月 13 日消息,隨著 ChatGPT 的爆紅,微軟、谷歌、百度相繼宣布對他們的搜索引擎進(jìn)行重大改革,試圖將大型人工智能模型整合到搜索中,以便給用戶提供更豐富、更準(zhǔn)確的體驗。但是興奮之余,新工具背后可能隱藏著一個“骯臟的秘密”。

AI 在搜索中的應(yīng)用將導(dǎo)致碳排放增加

外媒指出,構(gòu)建高性能人工智能搜索引擎的競賽很可能需要計算能力的大幅提升,它所產(chǎn)生的后果將是科技公司所需能源和碳排放量的大幅增加。

英國薩里大學(xué)網(wǎng)絡(luò)安全教授艾倫?伍德沃德 (Alan Woodward) 表示:“已經(jīng)有大量資源被用于索引和搜索互聯(lián)網(wǎng)內(nèi)容,但人工智能的整合需要一種不同的火力。它需要處理能力、存儲和高效搜索。每當(dāng)我們看到在線處理的步驟變化時,我們就會看到大型處理中心所需的電力和冷卻資源的顯著增加。我認(rèn)為人工智能的整合可能是會走這一步?!?/p>

碳排放大增

訓(xùn)練大型語言模型 (LLMs) 意味著在大量數(shù)據(jù)中解析和計算鏈接,這就是為什么它們往往是由擁有大量資源的公司開發(fā)的原因,比如為微軟必應(yīng)搜索提供動力的 ChatGPT,為谷歌聊天機(jī)器人“巴德”(Bard) 提供支持的那些語言模型。

“訓(xùn)練這些模型需要大量的計算能力,”西班牙科魯尼亞大學(xué) (University of Coru?a) 計算機(jī)科學(xué)家卡洛斯?戈麥茲?羅德里古茲 (Carlos Gómez-Rodríguez) 表示,“現(xiàn)在,只有大型科技公司才能訓(xùn)練他們?!?/p>

微軟已在必應(yīng)中整合 ChatGPT

盡管 OpenAI 和谷歌都沒有透露其產(chǎn)品的計算成本是多少,但研究人員發(fā)布的第三方分析預(yù)計,ChatGPT 部分依賴的 GPT-3 模型的訓(xùn)練會消耗 1287 兆瓦時電力,產(chǎn)生 550 多噸的二氧化碳當(dāng)量,相當(dāng)于一個人在紐約和舊金山之間往返 550 次。

“這個數(shù)字看起來沒有那么糟糕,但你必須考慮到這樣一個事實:你不僅要訓(xùn)練它,還要執(zhí)行它,為數(shù)百萬用戶服務(wù)?!绷_德里古茲表示。

而且,把 ChatGPT 作為一個獨立產(chǎn)品使用與把它整合到必應(yīng)中還有很大不同。投行瑞銀預(yù)計,ChatGPT 日均獨立訪問用戶為 1300 萬。相比之下,必應(yīng)每天要處理 5 億次搜索。

加拿大數(shù)據(jù)中心公司 QScale 聯(lián)合創(chuàng)始人馬丁?布查德 (Martin Bouchard) 認(rèn)為,根據(jù)他對微軟和谷歌搜索計劃的了解,在搜索過程中添加生成式人工智能,需要“每次搜索至少增加 4 到 5 倍的計算量”。

為了滿足搜索引擎用戶的需求,企業(yè)必須做出改變。“如果他們要經(jīng)常重新訓(xùn)練模型,并添加更多參數(shù)之類的東西,這是一個完全不同的規(guī)模,”布查德表示,“這將需要在硬件上進(jìn)行大量投資。我們現(xiàn)有的數(shù)據(jù)中心和基礎(chǔ)設(shè)施將無法應(yīng)對生成式人工智能的消耗。它們對性能的需求太高了。”

如何減少碳排放?

根據(jù)國際能源署發(fā)布的數(shù)據(jù),數(shù)據(jù)中心的溫室氣體排放量已經(jīng)占到全球溫室氣體排放量的 1% 左右。隨著云計算需求的增長,這一數(shù)字預(yù)計還會上升,但運(yùn)營搜索引擎的公司已承諾減少它們對全球變暖的凈貢獻(xiàn)。

微軟已經(jīng)承諾到 2050 年實現(xiàn)碳負(fù)排放,該公司計劃今年購買 150 萬噸碳信用額。碳信用又稱碳權(quán),是指排放 1 噸二氧化碳當(dāng)量的溫室氣體的權(quán)利。谷歌承諾到 2030 年在其整個業(yè)務(wù)和價值鏈實現(xiàn)凈零排放。

對于這些巨頭來說,減少將人工智能整合到搜索中的環(huán)境足跡和能源成本的一個方式就是將數(shù)據(jù)中心轉(zhuǎn)移到更清潔的能源上,并重新設(shè)計神經(jīng)網(wǎng)絡(luò)讓讓變得更高效,減少所謂的“推斷時間”,也就是算法處理新數(shù)據(jù)所需的計算能力。

“我們必須研究如何減少這種大型模型所需要的推斷時間,”謝菲爾德大學(xué)自然語言處理講師納菲斯?薩達(dá)特?莫薩維 (Nafise Sadat Moosavi) 表示,她致力于自然語言處理的可持續(xù)性研究,“現(xiàn)在是關(guān)注效率方面的好時機(jī)?!?/p>

谷歌發(fā)言人簡?帕克 (Jane Park) 表示,谷歌最初發(fā)布的“巴德”版本是一個由輕量級大型語言模型支持的版本?!拔覀冞€發(fā)表了一項研究,詳細(xì)介紹了最先進(jìn)語言模型的能源成本,包括早期和更大版本的 LaMDA,”帕克稱,“我們的研究結(jié)果表明,將高效的模型、處理器和數(shù)據(jù)中心與清潔能源相結(jié)合,可以將機(jī)器學(xué)習(xí)系統(tǒng)的碳足跡減少 1000 倍?!?/p>




更多信息可以來這里獲取==>>電子技術(shù)應(yīng)用-AET<<

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。