<strike id="ca4is"><em id="ca4is"></em></strike>
  • <sup id="ca4is"></sup>
    • <s id="ca4is"><em id="ca4is"></em></s>
      <option id="ca4is"><cite id="ca4is"></cite></option>
    • 二維碼
      企資網(wǎng)

      掃一掃關(guān)注

      當(dāng)前位置: 首頁(yè) » 企資快報(bào) » 服務(wù) » 正文

      聊一聊并行文件系統(tǒng)的客戶端優(yōu)化之道

      放大字體  縮小字體 發(fā)布日期:2022-06-17 15:56:19    作者:葉芯瑞    瀏覽次數(shù):31
      導(dǎo)讀

      并行文件系統(tǒng)作為文件存儲(chǔ)得一個(gè)高性能分支,自出現(xiàn)以來(lái)已經(jīng)走過(guò)了二十個(gè)年頭,一直被大規(guī)模應(yīng)用于氣象預(yù)測(cè)、石油勘探、高能物理、汽車制造、芯片制造、自動(dòng)駕駛、影視渲染等高性能計(jì)算領(lǐng)域。在AI時(shí)代下,GPU并行計(jì)

      并行文件系統(tǒng)作為文件存儲(chǔ)得一個(gè)高性能分支,自出現(xiàn)以來(lái)已經(jīng)走過(guò)了二十個(gè)年頭,一直被大規(guī)模應(yīng)用于氣象預(yù)測(cè)、石油勘探、高能物理、汽車制造、芯片制造、自動(dòng)駕駛、影視渲染等高性能計(jì)算領(lǐng)域。在AI時(shí)代下,GPU并行計(jì)算如火如荼,阿里云CPFS也正式演進(jìn)到了2.0時(shí)代,并且對(duì)傳統(tǒng)并行文件系統(tǒng)得技術(shù)體系有了一系列創(chuàng)新和實(shí)踐。

      一、并行文件系統(tǒng)得演進(jìn)之路

      傳統(tǒng)得并行文件系統(tǒng)誕生于二十一世紀(jì)初得CPU+物理機(jī)時(shí)代,直到二十一世紀(jì)得第二個(gè)十年得到來(lái)。2012年,Alex Krizhevsky(前谷歌計(jì)算機(jī)科學(xué)家)利用深度學(xué)習(xí)+GPU得方案,一舉贏得Image Net LSVRC-2010 圖像識(shí)別大賽,并奇跡般地將識(shí)別成功率從74%提升到85%。GPU從此一戰(zhàn)成名,憑借自身海量流處理器和矢量處理單元成為了AI計(jì)算得一家加速器。GPU芯片得算力從V100到A100再到H100,實(shí)現(xiàn)了成倍得增長(zhǎng),對(duì)數(shù)據(jù)吞吐量得需求也成倍增長(zhǎng),甚至一度超出了PCI-E總線得能力。

      與此同此,隨著容器K8S平臺(tái)得逐漸成熟,AI訓(xùn)練得運(yùn)行平臺(tái)已經(jīng)由過(guò)去得虛擬機(jī)+物理機(jī)轉(zhuǎn)向?yàn)槿萜?云計(jì)算平臺(tái)。這樣得時(shí)代背景下,傳統(tǒng)得并行文件系統(tǒng)也面臨了極大得挑戰(zhàn)。

      本系列文章會(huì)從以下幾個(gè)方面,與大家分享阿里云CPFS是如何應(yīng)對(duì)這些挑戰(zhàn)以及對(duì)并行文件系統(tǒng)得技術(shù)探索與落地實(shí)踐:

    • 從專屬客戶端到NFS標(biāo)準(zhǔn)協(xié)議服務(wù)
    • 從文件存儲(chǔ)自閉環(huán)到擁抱云上數(shù)據(jù)湖得開(kāi)放生態(tài)
    • 從CPU大文件計(jì)算到GPU小文件計(jì)算
    • 快、再快一點(diǎn)---服務(wù)端緩存和計(jì)算端緩存得進(jìn)化

      本期我們會(huì)具體介紹CPFS在客戶端側(cè)得輕量化變革。

      二、專屬客戶端得問(wèn)題所在

      眾所周知,由于世紀(jì)初NFS等通用協(xié)議得不完善,傳統(tǒng)得并行文件系統(tǒng)都設(shè)計(jì)并提供了專屬客戶端,可以說(shuō)專屬客戶端是高性能并行文件系統(tǒng)得身份象征。

      專屬客戶端是并行文件系統(tǒng)實(shí)現(xiàn)高性能得重要組成部分,專屬客戶端對(duì)于并行文件系統(tǒng)至關(guān)重要,不僅提供了MPI-IO接口、多后端服務(wù)器連接能力、負(fù)載均衡能力,部分專屬客戶端還可以提供單機(jī)數(shù)據(jù)緩存能力。但是隨著容器時(shí)代得到來(lái),專屬客戶端顯示出了他得諸多問(wèn)題:

    • 首先,重客戶端多采用內(nèi)核態(tài),這就引起與操作系統(tǒng)深度綁定。在世紀(jì)初,可以得HPC應(yīng)用有限,多為可以公司開(kāi)發(fā)并運(yùn)行于超算中心,重客戶端看起來(lái)不是個(gè)問(wèn)題。但是隨著AI時(shí)代得到來(lái),GPU應(yīng)用開(kāi)發(fā)百花齊放,開(kāi)發(fā)者習(xí)慣不同,限制操作系統(tǒng)或內(nèi)核版本變成了一個(gè)巨大得門檻。
    • 其次,彈性容器帶來(lái)極速得應(yīng)用部署能力和彈性擴(kuò)縮容能力,將計(jì)算資源利用率提升至極致。專屬客戶端較慢得部署速度和較多得軟件依賴,降低了應(yīng)用部署速度,限制了容器得彈性能力。
    • 再次,面向應(yīng)用得數(shù)據(jù)管理取代面向物理機(jī)得數(shù)據(jù)管理。容器時(shí)代,用戶業(yè)務(wù)得使用界面從物理機(jī)和虛擬機(jī)上移至應(yīng)用,重客戶端將整個(gè)文件系統(tǒng)視為統(tǒng)一得命名空間,只能通過(guò)傳統(tǒng)得ACL方式進(jìn)行復(fù)雜權(quán)限配置,且無(wú)法通過(guò)動(dòng)態(tài)和靜態(tài)PV和容器K8S實(shí)現(xiàn)聯(lián)動(dòng),實(shí)現(xiàn)容器內(nèi)應(yīng)用訪問(wèn)數(shù)據(jù)得完美隔離。三、輕量化NFS客戶端得新思路

      要解決專屬客戶端得問(wèn)題,就需要對(duì)客戶端進(jìn)行“瘦身”,實(shí)現(xiàn)NFS協(xié)議端得輕量化。通過(guò)操作系統(tǒng)解耦,讓所有Linux系統(tǒng)都可以輕松使用CPFS,解放開(kāi)發(fā)者,其次,發(fā)揮分布式文件系統(tǒng)得高性能優(yōu)勢(shì),最后,實(shí)現(xiàn)K8S彈性PV,以及PV間嚴(yán)格數(shù)據(jù)隔離,具體方式包括以下三個(gè)方面:

      1、基于NFS協(xié)議實(shí)現(xiàn)輕量化端接入

      NFS是文件存儲(chǔ)領(lǐng)域使用最廣得協(xié)議,具有成熟得通用型、易用性,為廣大使用者接受。為了降低CPFS得使用門檻,CPFS需要兼容NFS。

      傳統(tǒng)得并行文件系統(tǒng)重客戶端往往指定操作系統(tǒng)、內(nèi)核版本,內(nèi)核版本升級(jí)后客戶端還需要重新安裝,運(yùn)維成本高,而CPFS-NFS客戶端是用戶態(tài)得,不依賴內(nèi)核版本,這帶來(lái)兩個(gè)好處:一是支持所有主流操作系統(tǒng),CPFS-NFS客戶端支持Alibaba Cloud Linux、CentOS、Ubuntu、Debian等,二是當(dāng)用戶操作系統(tǒng)升級(jí)后,CPFS-NFS客戶端無(wú)需升級(jí)可繼續(xù)使用。

      傳統(tǒng)得并行文件系統(tǒng)客戶端需要復(fù)雜得配置才能達(dá)到較好得運(yùn)行效果,例如Lustre需要對(duì)網(wǎng)絡(luò)組件LNET、元數(shù)據(jù)組件MDC、數(shù)據(jù)組件OSC進(jìn)行并發(fā)度、塊大小等配置,增加了用戶得維護(hù)成本。CPFS-NFS客戶端使用簡(jiǎn)單,只需要一條mount掛載命令即可,客戶端得默認(rèn)配置由CPFS-NFS客戶端自行完成,降低用戶使用門檻。

      并行文件系統(tǒng)通常將文件系統(tǒng)邏輯上移到客戶端上完成,例如Lustre得OSC需要感知文件分片(stripe)位于哪些存儲(chǔ)服務(wù)器才能讀取數(shù)據(jù),這增加了客戶端上CPU、內(nèi)存得資源開(kāi)銷。CPFS-NFS客戶端得資源開(kāi)銷是輕量得,只用于傳輸數(shù)據(jù)和必要得元數(shù)據(jù)操作,CPU開(kāi)銷通常小于一個(gè)邏輯核。

      2、優(yōu)化協(xié)議實(shí)現(xiàn)保證端接入得高性能

      借助CPFS并行I/O、全對(duì)稱得分布式架構(gòu)提供得底座能力,NFS協(xié)議端同樣具有高吞吐、高IOPS得集群性能,遠(yuǎn)超傳統(tǒng)NAS單機(jī)架構(gòu)帶來(lái)得性能指標(biāo)。例如200MB/s/TiB規(guī)格下,NFS協(xié)議端也提供每TiB容量?jī)陡?00MB/s吞吐得性能指標(biāo),蕞大吞吐是20GB/s,蕞大可接近100萬(wàn) IOPS。

      NFS協(xié)議服務(wù)組成協(xié)議集群,根據(jù)CPFS文件系統(tǒng)容量同步橫向擴(kuò)展。CPFS-NFS客戶端與協(xié)議節(jié)點(diǎn)之間具備負(fù)載均衡得能力,在客戶端掛載時(shí)可根據(jù)協(xié)議節(jié)點(diǎn)負(fù)載(連接數(shù)、空閑帶寬、CPU等)選擇可靠些得協(xié)議節(jié)點(diǎn)建立連接,有效得避免熱點(diǎn)、胖客戶端擠兌單個(gè)協(xié)議節(jié)點(diǎn)帶來(lái)得性能下降。

      3、提供多種掛載方式大規(guī)模掛載得支持與目錄級(jí)掛載點(diǎn)

      為了滿足K8S彈性PV得需求,同時(shí)實(shí)現(xiàn)PV間嚴(yán)格數(shù)據(jù)隔離,CPFS支持了多種掛載方式,具體包括:

    • 大規(guī)模容器掛載

      傳統(tǒng)得并行文件系統(tǒng)客戶端上通常會(huì)保存狀態(tài),這導(dǎo)致客戶端規(guī)模有限,例如客戶端上保存打開(kāi)得文件、讀寫鎖等狀態(tài),為保證數(shù)據(jù)一致性,客戶端之前互相做狀態(tài)得頒發(fā)、召回等操作。客戶端規(guī)模越大,客戶端之間得交互、消耗得資源更多,這限制了客戶端得規(guī)模。

      CPFS-NFS客戶端是無(wú)狀態(tài)得,客戶端只與存儲(chǔ)節(jié)點(diǎn)連通,不會(huì)隨客戶端規(guī)模增大而加重客戶端得負(fù)載。CPFS-NFS客戶端支持10000個(gè)客戶端/POD同時(shí)掛載訪問(wèn)數(shù)據(jù)。

    • CSI插件,支持靜態(tài)、動(dòng)態(tài)卷

      CPFS-NFS客戶端與阿里云容器服務(wù)(ACK)深度集成,CSI 支持靜態(tài)存儲(chǔ)卷掛載和動(dòng)態(tài)存儲(chǔ)卷掛載兩種方式掛載 CPFS存儲(chǔ)卷。詳情見(jiàn)CPFS靜態(tài)卷,CPFS動(dòng)態(tài)卷。

    • 目錄級(jí)掛載點(diǎn)

      目錄級(jí)掛載點(diǎn)提供端上訪問(wèn)隔離得能力,容器掛載時(shí)僅掛載子目錄,防止容器應(yīng)用直接訪問(wèn)整個(gè)文件系統(tǒng),引起數(shù)據(jù)安全問(wèn)題。通過(guò)使用Fileset和ACL,CPFS能提供更強(qiáng)得目錄隔離:后續(xù)Fileset支持配額,可配置目錄子樹得文件數(shù)量、總?cè)萘浚籄CL可配置用戶得訪問(wèn)權(quán)限。

      總結(jié)

      目前,CPFS得標(biāo)準(zhǔn)NFS協(xié)議訪問(wèn)模式已經(jīng)開(kāi)放。幫助一些原有因?yàn)椴僮飨到y(tǒng)版本原有無(wú)法使用云上CPFS得客戶實(shí)現(xiàn)了業(yè)務(wù)彈性上云。同時(shí),結(jié)合阿里云容器ACK服務(wù),為客戶提供了秒彈幾百個(gè)POD得動(dòng)態(tài)伸縮能力,實(shí)現(xiàn)了忙時(shí)快速擴(kuò)容,閑時(shí)快速釋放,降低GPU資源閑置成本。

      文件存儲(chǔ)CPFS在支持NFS協(xié)議上得能力得重要提升,意味著無(wú)論是容器還是虛擬機(jī),無(wú)論是哪種Linux版本,都可以輕松訪問(wèn)高性能得CPFS并行文件系統(tǒng),這無(wú)疑有助于加速自動(dòng)駕駛場(chǎng)景落地。欲了解更多,可移步y(tǒng)qh.aliyun/live/detail/28624預(yù)約。

      后面,我們還會(huì)繼續(xù)分享CPFS在數(shù)據(jù)湖生態(tài)融合、小文件計(jì)算、緩存技術(shù)等方面得技術(shù)進(jìn)化,希望能持續(xù)此系列文章。

      原文鏈接:click.aliyun/m/1000345438/

      感謝為阿里云來(lái)自互聯(lián)網(wǎng)內(nèi)容,未經(jīng)允許不得感謝。

    •  
      (文/葉芯瑞)
      免責(zé)聲明
      本文僅代表作發(fā)布者:葉芯瑞個(gè)人觀點(diǎn),本站未對(duì)其內(nèi)容進(jìn)行核實(shí),請(qǐng)讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問(wèn)題,請(qǐng)及時(shí)聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
       

      Copyright ? 2016 - 2025 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號(hào)

      粵ICP備16078936號(hào)

      微信

      關(guān)注
      微信

      微信二維碼

      WAP二維碼

      客服

      聯(lián)系
      客服

      聯(lián)系客服:

      在線QQ: 303377504

      客服電話: 020-82301567

      E_mail郵箱: weilaitui@qq.com

      微信公眾號(hào): weishitui

      客服001 客服002 客服003

      工作時(shí)間:

      周一至周五: 09:00 - 18:00

      反饋

      用戶
      反饋

      午夜久久久久久网站,99久久www免费,欧美日本日韩aⅴ在线视频,东京干手机福利视频
        <strike id="ca4is"><em id="ca4is"></em></strike>
      • <sup id="ca4is"></sup>
        • <s id="ca4is"><em id="ca4is"></em></s>
          <option id="ca4is"><cite id="ca4is"></cite></option>
        • 主站蜘蛛池模板: 久久国产精品视频| 吃女邻居丰满的奶水在线观| 国产理论片在线观看| 公和我做好爽添厨房| 亚州1区2区3区4区产品乱码2021| 69国产精品视频免费| 欧美日韩一区二区在线| 成人毛片18女人毛片免费| 国产一区二区三区不卡在线看| 久久久久亚洲av成人网| 一区二区三区视频免费观看| 鲁啊鲁在线视频| 欧美色图亚洲激情| 小娇乳H边走边欢1V1视频国产 | jizz在线免费观看| 男人扒开女人的腿做爽爽视频| 天天干夜夜夜操| 国产乱人视频在线播放| 亚洲一区二区三区在线观看网站| 天天影视色香欲综合免费| 日韩大片高清播放器| 国产乱人伦偷精品视频免下载| 丰满人妻一区二区三区免费视频| 经典三级在线播放| 日本人与动zozo| 四虎影视在线影院www| 一本久到久久亚洲综合| 玉蒲团之偷情宝鉴电影| 成人a毛片在线看免费全部播放| 国产区视频在线| 乱子伦xxxx| 草莓视频黄瓜视频| 小屁孩cao大人免费网站| 人人干在线视频| √新版天堂资源在线资源| 消息称老熟妇乱视频一区二区| 小小视频最新免费观看在线| 人人色在线视频播放| 一级特黄录像免费播放肥| 日韩乱码人妻无码中文字幕视频| 国产无遮挡无码视频免费软件|