<strike id="ca4is"><em id="ca4is"></em></strike>
  • <sup id="ca4is"></sup>
    • <s id="ca4is"><em id="ca4is"></em></s>
      <option id="ca4is"><cite id="ca4is"></cite></option>
    • 二維碼
      企資網(wǎng)

      掃一掃關(guān)注

      當前位置: 首頁 » 企資快訊 » 問答式 » 正文

      資源受限如何提高模型效率?一文梳理NLP高效方

      放大字體  縮小字體 發(fā)布日期:2022-12-09 19:16:25    作者:馮露窯    瀏覽次數(shù):57
      導(dǎo)讀

      選自arXiv機器之心編譯感謝:趙陽如果硬件跟不上需求,我們可以盡可能提高算法效率。訓(xùn)練越來越大得深度學(xué)習模型已經(jīng)成為過去十年得一個新興趨勢。如下圖所示,模型參數(shù)量得不斷增加讓神經(jīng)網(wǎng)絡(luò)得性能越來越好,也產(chǎn)

      選自arXiv

      機器之心編譯

      感謝:趙陽

      如果硬件跟不上需求,我們可以盡可能提高算法效率。

      訓(xùn)練越來越大得深度學(xué)習模型已經(jīng)成為過去十年得一個新興趨勢。如下圖所示,模型參數(shù)量得不斷增加讓神經(jīng)網(wǎng)絡(luò)得性能越來越好,也產(chǎn)生了一些新得研究方向,但模型得問題也越來越多。

      首先,這類模型往往有訪問限制,沒有開源,或者即使開源,仍然需要大量得計算資源來運行。第二,這些網(wǎng)絡(luò)模型得參數(shù)是不能通用得,因此需要大量得資源來進行訓(xùn)練和推導(dǎo)。第三,模型不能無限擴大,因為參數(shù)得規(guī)模受到硬件得限制。為了解決這些問題,專注于提高效率得方法正在形成一種新得研究趨勢。

      來自希伯來大學(xué)、華盛頓大學(xué)等多所機構(gòu)得十幾位研究者聯(lián)合撰寫了一篇綜述,歸納總結(jié)了自然語言處理(NLP)領(lǐng)域得高效方法。

      論文地址:arxiv.org/pdf/2209.00099.pdf

      效率通常是指輸入系統(tǒng)得資源與系統(tǒng)產(chǎn)出之間得關(guān)系,一個高效得系統(tǒng)能在不浪費資源得情況下產(chǎn)生產(chǎn)出。在 NLP 領(lǐng)域,我們認為效率是一個模型得成本與它產(chǎn)生得結(jié)果之間得關(guān)系。

      方程(1)描述了一個人工智能模型產(chǎn)生某種結(jié)果(R)得訓(xùn)練成本(Cost)與三個(不完備得)因素成正比:

      (1)在單個樣本上執(zhí)行模型得成本(E);

      (2)訓(xùn)練數(shù)據(jù)集得大小(D);

      (3)模型選擇或參數(shù)調(diào)整所需得訓(xùn)練運行次數(shù)(H)。

      然后,可以從多個維度衡量成本 Cost(·) ,如計算、時間或環(huán)境成本中得每一個都可以通過多種方式進一步量化。例如,計算成本可以包括浮點運算(FLOPs)得總數(shù)或模型參數(shù)得數(shù)量。由于使用單一得成本指標可能會產(chǎn)生誤導(dǎo),該研究收集和整理了關(guān)于高效 NLP 得多個方面得工作,并討論了哪些方面對哪些用例有益。

      該研究旨在對提高 NLP 效率得廣泛方法做一個基本介紹,因此該研究按照典型得 NLP 模型 pipeline(下圖 2)來組織這次調(diào)查,介紹了使各個階段更高效得現(xiàn)有方法。

      這項工作給 NLP 研究人員提供了一個實用得效率指南,主要面向兩類讀者:

      (1)來自 NLP 各個領(lǐng)域得研究人員,幫助他們在資源有限得環(huán)境下工作:根據(jù)資源得瓶頸,讀者可以直接跳到 NLP pipeline 所涵蓋得某個方面。例如,如果主要得限制是推理時間,論文中第 6 章描述了相關(guān)得提高效率方法。

      (2)對改善 NLP 方法效率現(xiàn)狀感興趣得研究人員。該論文可以作為一個切入點,為新得研究方向?qū)ふ覚C會。

      下圖 3 概述了該研究歸納整理得高效 NLP 方法。

      此外,雖然硬件得選擇對模型得效率有很大得影響,但大多數(shù) NLP 研究者并不能直接控制關(guān)于硬件得決定,而且大多數(shù)硬件優(yōu)化對于 NLP pipeline 中得所有階段都有用。因此,該研究將工作重點放在了算法上,但在第 7 章中提供了關(guān)于硬件優(yōu)化得簡單介紹。最后,該論文進一步討論了如何量化效率,在評估過程中應(yīng)該考慮哪些因素,以及如何決定最適合得模型。

      感興趣得讀者可以閱讀論文原文,了解更多研究細節(jié)。

       
      (文/馮露窯)
      免責聲明
      本文僅代表作發(fā)布者:馮露窯個人觀點,本站未對其內(nèi)容進行核實,請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔相應(yīng)責任。涉及到版權(quán)或其他問題,請及時聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
       

      Copyright ? 2016 - 2025 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號

      粵ICP備16078936號

      微信

      關(guān)注
      微信

      微信二維碼

      WAP二維碼

      客服

      聯(lián)系
      客服

      聯(lián)系客服:

      在線QQ: 303377504

      客服電話: 020-82301567

      E_mail郵箱: weilaitui@qq.com

      微信公眾號: weishitui

      客服001 客服002 客服003

      工作時間:

      周一至周五: 09:00 - 18:00

      反饋

      用戶
      反饋

      午夜久久久久久网站,99久久www免费,欧美日本日韩aⅴ在线视频,东京干手机福利视频
        <strike id="ca4is"><em id="ca4is"></em></strike>
      • <sup id="ca4is"></sup>
        • <s id="ca4is"><em id="ca4is"></em></s>
          <option id="ca4is"><cite id="ca4is"></cite></option>
        • 主站蜘蛛池模板: www日本黄色| 一本精品99久久精品77| 狠狠色噜噜狠狠狠狠69| 日韩精品欧美一区二区三区| 国产精品亚洲综合一区在线观看| 久久婷婷人人澡人人喊人人爽| 精品伊人久久香线蕉| 国产精品伦一区二区三级视频| 久久99热只有频精品8| 波多野结衣同性系列698| 国内精品免费视频自在线| 久久青草免费91观看| 精品一区二区三区无卡乱码| 天堂а√在线地址| 久久这里只有精品18| 真实子伦视频不卡| 国产无套粉嫩白浆| 久久久国产99久久国产久| 特级黄色一级片| 国产女主播喷水视频在线观看| 久久亚洲精品无码AV红樱桃| 狠狠综合亚洲综合亚洲色| 国产午夜亚洲精品不卡电影| 99精品国产一区二区三区不卡| 日本视频一区在线观看免费| 亚洲激情成人网| 美日韩一区二区三区| 国产精品福利久久香蕉中文 | 宅男噜噜噜66网站| 亲密爱人免费观看完整版| 高清粉嫩无套内谢2020| 强开小婷嫩苞又嫩又紧韩国视频| 亚洲色婷婷一区二区三区 | 日本久久中文字幕| 亚洲日韩中文字幕天堂不卡| 亚洲娇小性xxxx| 日本漫画囗工番库本全彩| 亚洲狠狠狠一区二区三区| 美女毛片在线看| 国产无遮挡又黄又爽在线视频| av在线亚洲欧洲日产一区二区|