趨勢丨設(shè)計(jì)的代價:深度學(xué)習(xí)已經(jīng)接近計(jì)算極限
前言:
關(guān)于深度學(xué)習(xí),它正在快速接近其極限。雖然事實(shí)可能的確如此,但我們?nèi)晕茨茉谌粘I钪懈惺艿饺娌渴鹕疃葘W(xué)習(xí)的影響。
MIT:算力將探底,算法需改革
近日,MIT發(fā)出警告:深度學(xué)習(xí)正在接近現(xiàn)有芯片的算力極限,如果不變革算法,深度學(xué)習(xí)恐難再進(jìn)步。
根據(jù)麻省理工學(xué)院,MIT-IBM Watson AI實(shí)驗(yàn)室,Underwood國際學(xué)院和巴西利亞大學(xué)的研究人員在最近的研究中發(fā)現(xiàn),持續(xù)不斷的進(jìn)步將需要通過改變現(xiàn)有技術(shù)或通過尚未發(fā)現(xiàn)的新方法來更有效地使用深度學(xué)習(xí)方法。
目前深度學(xué)習(xí)的繁榮過度依賴算力的提升,在后摩爾定律時代可能遭遇發(fā)展瓶頸,在算法改進(jìn)上還需多多努力。
深度學(xué)習(xí)不是偶然的計(jì)算代價,而是設(shè)計(jì)的代價。共同的靈活性使它能夠出色地建模各種現(xiàn)象,并且性能優(yōu)于專家模型,這也使其在計(jì)算上的成本大大提高。
研究人員估計(jì),三年的算法改進(jìn)相當(dāng)于計(jì)算能力提高10倍?傮w而言,在深度學(xué)習(xí)的許多領(lǐng)域中,訓(xùn)練模型的進(jìn)步取決于所使用的計(jì)算能力的大幅度提高。 另一種可能性是,要改善算法本身可能需要互補(bǔ)地提高計(jì)算能力。
在研究過程中,研究人員還對預(yù)測進(jìn)行了推斷,以了解達(dá)到各種理論基準(zhǔn)所需的計(jì)算能力以及相關(guān)的經(jīng)濟(jì)和環(huán)境成本。
即使是最樂觀的計(jì)算,要降低ImageNet上的圖像分類錯誤率,也需要進(jìn)行10的五次方以上的計(jì)算。
根據(jù)多項(xiàng)式和指數(shù)模型的預(yù)測,通過深度學(xué)習(xí)獲得相應(yīng)性能基準(zhǔn)所需的算力(以Gflops為單位),碳排放量和經(jīng)濟(jì)成本,最樂觀的估計(jì),ImageNet分類誤差要想達(dá)到1%,需要10^28 Gflops的算力,這對硬件來說是不小的壓力。

發(fā)表評論
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字