人工智能給人類帶來便利的同時,它的環(huán)境可持續(xù)問題一直備受關注。
去年6月份,美國馬薩諸塞州大學阿默斯特分校的研究人員發(fā)布了一份報告,預估訓練和運行某種神經網絡系統(tǒng)所需的電量會產生大約626000磅(1磅約等于0.45千克)的二氧化碳排放。這相當于美國普通汽車使用壽命內排放量的五倍。
到了人工智能模型的部署階段,碳排放的問題會變得更加嚴重。因為系統(tǒng)需要部署在不同的硬件平臺,每個硬件平臺又具備不同的屬性和計算資源。
為了改變這樣的情況,來自麻省理工學院的研究人員開發(fā)了一種新的自動化AI系統(tǒng),可用于訓練和運行某些神經網絡。結果表明,用某些關鍵方法提高系統(tǒng)的計算效率,系統(tǒng)可以減少碳排放。
研究人員將這套系統(tǒng)稱為“once-for-all”(一次就好)網絡,它可以訓練一個大型神經網絡,其中包含許多不同大小的預訓練子模型。每個子模型都可以在推理時獨立運行而無需重新訓練,并且系統(tǒng)會根據(jù)目標硬件的功率和速度,折衷相關的精度和等待時間,來確定最佳子模型。例如,對于智能手機,系統(tǒng)會選擇更大的子模型,但根據(jù)各個電池的壽命和計算資源,其子網結構又會有所不同。研究人員稱,這套系統(tǒng)在訓練時只大約只需當今流行的模型搜索技術的1 / 1300的碳排放量。
“我們的目標是建立更小,更綠色的神經網絡?!盡IT電氣工程和計算機科學系的助理教授Song Han表示: “到目前為止,搜索有效的神經網絡架構都需要大量的碳足跡。但是,通過新方法,我們將碳排放減少了幾個數(shù)量級?!?/p>
據(jù)Song Han介紹,關于這套系統(tǒng)的論文將會在下周發(fā)表,其他研究者還包括來自EECS,MIT-IBM Watson AI Lab和上海交通大學的四名本科生和研究生。
那么,他們的方法具體是如何做到減少計算所帶來的的碳排放的?研究員表示,主要在于他們采用了“漸進式收縮”的算法,可以有效地訓練大模型,又同時支持所有子模型。這個算法首先會訓練大型模型,然后在大型模型的幫助下訓練較小的子模型,以便它們可以同時學習。最后,當所有子模型都訓練完成后,就可以根據(jù)平臺的功率和速度限制進行快速專業(yè)化的計算。添加新設備時,它可以以零培訓成本支持許多硬件設備。
在實驗中,研究人員發(fā)現(xiàn),用他們的方法訓練一個包含超過10萬億個架構設置的計算機視覺模型,比花費數(shù)小時訓練每個子網絡要有效得多。此外,這套系統(tǒng)不會影響模型的準確性或效率。在ImageNet上進行測試時,該模型在移動設備上得到了最好的準確性,并且在推理方面比領先的分類系統(tǒng)快1.5到2.6倍。
研究成員之一,IBM研究員兼MIT-IBM Watson AI實驗室John Cohn認為:“如果要繼續(xù)保持AI的快速發(fā)展,我們需要減少對環(huán)境的影響。開發(fā)使AI模型更小,更高效的方法,好處在于這些模型可能還會表現(xiàn)更好。”