(2019-06-18)我們的個人電腦,只要一開機就有碳腳印,以去年一名Google實習生為例,建構了一套AI神經網路,為了讓圖像顯現細節,他不斷增加神經網路的複雜度,結果所耗用的電能,足夠一個家庭半年所需...
(2019-06-18)一套市面上的AI口語軟體,經過訓練瞭解人類的語言,成為可用的商品,在訓練期間,電腦運轉所花耗的電能,如果轉換成二氧化碳(CO2)排放量,相當五輛汽車壽命的總和,約280噸。
電腦的電源來自電廠,電廠燃燒煤、油、天然氣、或其他燃料發電,所排放CO2的重量,即是所謂的「碳腳印」(Carbon Footprint)。上面那套軟體的「碳腳印」,就是280噸。
碳腳印是怎麼計算出來的?當然不是在工廠煙囪外面量出來的,而是根據多年經驗發展出的計算方式。每燃燒一個碳原子(C),就會產生一個二氧化碳分子(CO2),也就是除了原來的C,又增加了兩個氧原子(O),C的原子量為12,O為16,所以CO2的重量為12+16X2=44,為C的3.67倍。
每一種燃料都含有碳的成份,煤的含碳量約60%至80%,無煙煤更可能到90%,汽油與柴油含碳量約86%,石油、天然氣、別的燃料也都含不同的碳成份,所以:
燃料使用量X燃料含碳成份X 3.67= CO2排放量
以一家燃煤電廠使用70%含碳的煤為例,燃燒100萬噸的煤,也就是70萬噸碳,所產生的CO2約250萬噸,遠大過燃料本身的重量。
有人把我們日常生活的碳腳印算出來了。一個人從舊金山飛到紐約來回,碳腳印約0.9噸;一個人平均活動一年的碳腳印約5噸;一位美國人平均活動一年的碳腳印約16噸,為別國人的三倍;一輛美國汽車總壽命的碳腳印約57噸。
我們的個人電腦,只要一開機就有碳腳印,因為耗電不多沒有在意,但一旦用來訓練AI就不同了。以去年一名Google實習生為例,建構了一套AI神經網路,把圖片影像展現得栩栩如生,為了讓圖像顯現細節,這名實習生不斷增加神經網路的複雜度,結果所耗用的電能,足夠一個家庭半年所需。
美國麻州大學(UMass)研究生Emma Strubell作博士論文時,發現所設計的演算法耗用電能的碳腳印高達35噸,相當一位美國人兩年的排放量,於是寫了一篇論文,七月底在義大利佛羅倫斯「計算語言協會」年會上發表,論述AI的深層學習、特別是自然語言的處理,務必要考量所花耗的能源。
自然語言處理是近年AI的一大優勢,但在訓練上花耗的能源,依結構的複雜、與調整的精細,有顯著增加。
Transformer是兩年前的協助寫作軟體,訓練的碳腳印僅87公斤,今年初升級,用神經網路調整學習方式,不斷精緻寫作功能(如作詩、作文),務使趨近完美。但訓練所耗用的電能,卻高達656,000千瓦小時(度),碳腳印也高達284噸,電費可高達300萬美元之譜。
Emma Strubell特別強調,像這類AI付出的巨大代價,卻與提升的品質不成比例,是否可避免,或在運算技術上大幅度提昇運轉效益。幸好欣見Google上月宣佈投資新的機器學習模型,能源的使用效率可以增加10倍。
除了AI會使用高額度能源,所有的技術都會留下碳腳印,以目前趨勢,到了2040年,全球20%碳腳印會來自技術。YouTube僅是一個播放影片的平台,大家用來觀賞影視,但每年消耗能源的碳腳印卻高達110萬噸。數位器具雖小,龐大的數量加在一起,就了製造環保衝擊。
人的腦子思考與運算,不需要那麼多能源,問題是如何製造跟人腦一樣的機器?
本文取材自2019年6月16日「那福忠西海岸數位隨筆(104)」:AI留下的碳腳印
對本文有任何看法,歡迎 E-Mail:frank.na@gmail.com 給作者,分享您對本文的看法。