眾核多計算模式系統(tǒng)的構建-設計應用_第1頁
眾核多計算模式系統(tǒng)的構建-設計應用_第2頁
眾核多計算模式系統(tǒng)的構建-設計應用_第3頁
眾核多計算模式系統(tǒng)的構建-設計應用_第4頁
眾核多計算模式系統(tǒng)的構建-設計應用_第5頁
已閱讀5頁,還剩6頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

精品文檔-下載后可編輯眾核多計算模式系統(tǒng)的構建-設計應用摘要:復雜應用領域中的一些具體計算任務不僅需要計算平臺具備高效的計算能力,而且也應具有與計算任務特點相匹配的計算模式。依據(jù)NVIDIAKeplerGK110架構中Hyper-Q特性與CUDA流的關系,提出單任務并行、多任務并行與多任務流式計算三種計算模式。采用空位標記的方法對計算模式進行構建與切換,結合數(shù)據(jù)緩沖機制和計算任務加載方式,設計了眾核多計算模式處理系統(tǒng),實現(xiàn)了眾核處理機多模式計算的功能。

0引言

在航空航天、醫(yī)療服務、地質勘探等復雜應用領域,需要處理的數(shù)據(jù)量急劇增大,需要高性能的實時計算能力提供支撐。與多核處理器相比,眾核處理器計算資源密度更高、片上通信開銷顯著降低、性能/功耗比明顯提高,可為實時系統(tǒng)提供強大的計算能力。

在復雜應用領域當中,不同應用場景對計算的需求可能不同。例如,移動機器人在作業(yè)時,可能需要同時執(zhí)行路徑規(guī)劃、目標識別等多個任務,這些任務需要同時執(zhí)行;在對遙感圖像處理時,需要對圖像數(shù)據(jù)進行配準、融合、重構、特征提取等多個步驟,這些步驟間既需要同時執(zhí)行,又存在前驅后繼的關系。因此,基于眾核處理器進行計算模式的動態(tài)構造,以適應不同的應用場景和應用任務成為一種新的研究方向。文獻[1]研究了具有邏輯核構造能力的眾核處理器體系結構,其基本思想是基于多個細粒度處理器核構建成粗粒度邏輯核,將不斷增加的處理器核轉化為單線程串行應用的性能提升。文獻提出并驗證了一種基于類數(shù)據(jù)流驅動模型的可重構眾核處理器結構,實現(xiàn)了邏輯核處理器的運行時可重構機制。文獻提出了一種支持核資源動態(tài)分組的自適應調度算法,通過對任務簇的拆分與合并,動態(tài)構建可彈性分區(qū)的核邏輯組,實現(xiàn)核資源的隔離優(yōu)化訪問。

GPGPU(General-PurposeComputingonGraphicsProcessingUnits)作為一種典型的眾核處理器,有關研究多面向單任務并發(fā)執(zhí)行方面的優(yōu)化以及應用算法的加速。本文以GPGPU為平臺,通過研究和設計,構建了單任務并行、多任務并行和多任務流式處理的多計算模式處理系統(tǒng)。

1眾核處理機

1.1眾核處理機結構

眾核處理機是基于眾核控制單元(MPU)與眾核處理器(GPGPU)相結合的主、協(xié)處理方式構建而成,其邏輯結構如圖1所示。眾核處理機由眾核控制單元和眾核計算單元兩部分組成,其中眾核控制單元采用X86結構的MPU,與眾核計算單元之間通過PCI-E總線進行互連。

1.2CUDA流與Hyper-Q

在統(tǒng)一計算設備架構(ComputeUnifiedDeviceAr-chitecture,CUDA)編程模型中,CUDA流(CUDAStream)表示GPU的一個操作隊列,通過CUDA流來管理任務和并行。CUDA流的使用分為兩種:一種是CUDA在創(chuàng)建上下文時會隱式地創(chuàng)建一個CUDA流,從而命令可以在設備中排隊等待執(zhí)行;另一種是在編程時,在執(zhí)行配置中顯式地指定CUDA流。不管以何種方式使用CUDA流,所有的操作在CUDA流中都是按照先后順序排隊執(zhí)行,然后每個操作按其進入隊列的順序離開隊列。換言之,隊列充當了一個FIFO(先入先出)緩沖區(qū),操作按照它們在設備中的出現(xiàn)順序離開隊列。

在GPU中,有一個CUDA工作調度器(CUDAWorkDistributor,CWD)的硬件單元,專門負責將計算工作分發(fā)到不同的流處理器中。在Fermi架構中,雖然支持16個內(nèi)核的同時啟動,但由于只有一個硬件工作隊列用來連接主機端CPU和設備端GPU,造成并發(fā)的多個CUDA流中的任務在執(zhí)行時必須復用同一硬件工作隊列,產(chǎn)生了虛假的流內(nèi)依賴關系,必須等待同一CUDA流中相互依賴的kernel執(zhí)行結束,另一CUDA流中的ker-nel才能開始執(zhí)行。而在KeplerGK110架構中,新具有的Hyper-Q特性消除了只有單一硬件工作隊列的限制,增加了硬件工作隊列的數(shù)量,因此,在CUDA流的數(shù)目不超過硬件工作隊列數(shù)目的前提下,允許每個CUDA流獨占一個硬件工作隊列,CUDA流內(nèi)的操作不再阻塞其他CUDA流的操作,多個CUDA流能夠并行執(zhí)行。

如圖2所示,當利用Hyper-Q和CUDA流一起工作時,虛線上方顯示為Fermi模式,流1、流2、流3復用一個硬件工作隊列,而虛線下方為KeplerHyper-Q模式,允許每個流使用單獨的硬件工作隊列同時執(zhí)行。

2眾核多計算模式處理框架

為了充分發(fā)揮眾核處理器的計算能力,眾核處理系統(tǒng)面對不同的計算任務的特點,可構建三種計算模式,即單任務并行計算、多任務并行計算、多任務流式計算。

2.1眾核多計算模式處理系統(tǒng)結構

眾核多計算模式處理系統(tǒng)結構如圖3所示。眾核處理系統(tǒng)包括數(shù)據(jù)通信、任務管理、形態(tài)管理、資源管理和控制監(jiān)聽模塊。

數(shù)據(jù)通信模塊:提供接口給主控機,負責接收從主控機發(fā)送來的任務命令和任務計算所需的任務數(shù)據(jù),并且終將眾核處理機運算完成的計算結果通過該模塊返回給主控機。

控制監(jiān)聽模塊:在眾核處理系統(tǒng)運行時,實時獲取主控機發(fā)送給眾核處理機的任務命令,將其傳送給任務管理模塊,并接收任務管理模塊返回的任務命令執(zhí)行結果。

任務管理模塊:負責計算任務的加載過程,將控制監(jiān)聽模塊發(fā)送來的任務命令存于任務隊列,當眾核計算單元需要加載任務進行計算時,從任務隊列中獲取任務命令,根據(jù)任務命令從任務配置文件中獲取任務計算所需的任務信息,該任務信息包含了計算任務運行時所需的存儲空間大小、適合于該任務的計算模式、執(zhí)行函數(shù)(即CUDA中的kernel函數(shù))等內(nèi)容,在計算任務在被加載前,需要通知形態(tài)管理模塊把眾核計算單元切換到指定的計算模式下,并通知資源管理模塊分配存儲空間,通過數(shù)據(jù)通信模塊獲取任務數(shù)據(jù),然后讀取任務計算庫,加載執(zhí)行函數(shù)進行計算。

形態(tài)管理模塊:接收任務管理模塊發(fā)送來的目標計算模式,切換到該種計算模式。

資源管理模塊:根據(jù)任務管理模塊發(fā)送的參數(shù)分配存儲空間,包括眾核控制單元的存儲空間和眾核計算單元的存儲空間,眾核控制單元的存儲空間用于對任務數(shù)據(jù)進行緩存,然后通過數(shù)據(jù)傳輸?shù)腁PI接口把緩存在眾核控制單元的數(shù)據(jù)傳送到眾核計算單元的存儲空間,在計算時由從眾核計算單元存儲空間加載數(shù)據(jù)進行計算。

2.2計算模式構建與切換

計算模式構建是形態(tài)管理模塊根據(jù)接收到的命令動態(tài)構建出被指定的目的計算模式的過程。眾核處理系統(tǒng)在初始化時,就已經(jīng)創(chuàng)建了指定數(shù)目的CUDA流(CUDA流的數(shù)目取決于GPU中硬件工作隊列的數(shù)目),并采用空位標記法對創(chuàng)建的CUDA流進行管理,通過標記位的有效性描述CUDA流的可用性。當目的計算模式為單任務計算時,只需將首位的CUDA流標記設置為有效,其他全部標記為無效,在對計算任務加載時,將計算任務放入該CUDA流中進行計算;當目的計算模式為多任務計算時,需要將指定數(shù)目CUDA流的標記位設置為有效,在對計算任務加載時,通過輪詢的方式將計算任務放入到相應的CUDA流中,利用CUDA流的Hyper-Q特性,同時加載多個計算任務到眾核計算單元;當目的計算模式為多任務流式計算時,需要將指定CUDA流的標記設置為有效,從構建個計算步開始,將個計算步放入個CUDA流中進行計算,當個計算步首次完成計算后,利用二元信號量通知眾核控制單元中的任務管理模塊開始構建第二個計算步,并重新構建個計算步,以此類推,完成對多任務流式計算中每個計算步的動態(tài)構建過程。

計算模式的切換是當眾核計算單元的當前計算模式與計算任務執(zhí)行需要的計算模式(即目的計算模式)不匹配時,需要對眾核計算單元的計算模式進行切換,以適應計算模式變化的需求。

在從任務配置文件中獲取適應于計算任務執(zhí)行的目的計算模式后,首先與當前計算模式進行比較,若匹配成功則不需要進行計算模式的切換;若匹配失敗則進一步判斷眾核在當前計算模式下是否空閑,如處于忙碌狀態(tài)則需要等待,對于不同優(yōu)先級的任務設有不同的等待時限,以保證對計算任務的及時響應,當大于這一時強制結束正在運行的任務以釋放計算資源,從而構建新的計算模式,完成計算模的切換過程,流程圖如圖4所示。

2.3共享內(nèi)存緩沖技術

眾核計算單元在對主控機請求的計算任務加載前,必須獲取來自主控機的任務數(shù)據(jù),為了實現(xiàn)對任務數(shù)據(jù)的接收和發(fā)送,需要建立相應的數(shù)據(jù)緩沖區(qū)。傳統(tǒng)的方法是采用消息隊列和基于共享內(nèi)存信號燈的方式來建立和管理數(shù)據(jù)緩沖區(qū),但當數(shù)據(jù)的寫入和讀取速度差別較大時,容易造成數(shù)據(jù)緩沖區(qū)的阻塞。因此采用一種可滑動動態(tài)共享內(nèi)存緩沖技術,如圖5所示。

在眾核控制單元的存儲空間中申請存儲空間作為存放數(shù)據(jù)的緩沖池,按需要建立指定數(shù)量的單向指針鏈表,每個指針鏈表代表一個數(shù)據(jù)緩沖區(qū),在眾核處理系統(tǒng)的計算模式切換時,可根據(jù)并行任務數(shù)目的變化修改指針鏈表的節(jié)點數(shù),使每個數(shù)據(jù)緩沖區(qū)占用的存儲空間按需滑動,以提高整個數(shù)據(jù)緩池數(shù)據(jù)的傳遞效率。

2.4計算庫動態(tài)加載

在對計算任務的執(zhí)行函數(shù)進行加載時,采用動態(tài)共享庫的方式,因為動態(tài)鏈接的共享庫具有動態(tài)加載、封裝實現(xiàn)、節(jié)省內(nèi)存等優(yōu)點,可以把眾核計算單元的執(zhí)行函數(shù)與邏輯控制程序相隔離,降低了眾核計算與邏輯控制的耦合度,增加了可擴展性和靈活性。

在動態(tài)加載計算庫前,需要將執(zhí)行函數(shù)編譯生成動態(tài)共享庫,進而在程序中進行顯示調用。當調用時使用動態(tài)加載API,該過程首先調用dlopen以打開指定名字的動態(tài)共享庫,并獲得共享對象的句柄;而后通過調用dlsym,根據(jù)動態(tài)共享庫操作句柄與符號獲取該符號對應的函數(shù)的執(zhí)行代碼地址;在取得執(zhí)行代碼地址后,就可以根據(jù)共享庫提供的接口調用與計算任務對應的執(zhí)行函數(shù),將執(zhí)行函數(shù)發(fā)射到眾核計算單元,由眾核計算單元根據(jù)執(zhí)行函數(shù)的配置參數(shù)組織計算資源進行計算;當不會再調用共享對象時調用dlclose關閉指定句柄的動態(tài)共享庫。

3結語

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論