趙 勇,李有福,李小龍,劉 鵬,田文洪
(電子科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院 成都 611731)
我們正在進(jìn)入一個(gè)“大數(shù)據(jù)”時(shí)代,全球產(chǎn)生的數(shù)據(jù)量呈“爆炸式”的增長(zhǎng)。根據(jù)最近的IDC研究報(bào)告,在2010年全球的數(shù)據(jù)信息總和達(dá)到1 ZB(zettabyte)。Google和Bing等搜索引擎每天都會(huì)產(chǎn)生數(shù)TB的搜索日志。社交網(wǎng)絡(luò)產(chǎn)生的數(shù)據(jù)量也十分巨大,F(xiàn)acebook每月產(chǎn)生300億條內(nèi)容,包括web鏈接、新聞、狀態(tài)、博客文章和視頻與圖片的評(píng)論等[1]。科學(xué)界同樣面臨來自實(shí)驗(yàn)數(shù)據(jù)、模擬數(shù)據(jù)、傳感器數(shù)據(jù)和衛(wèi)星數(shù)據(jù)等“數(shù)據(jù)泛濫”問題[2]。歐洲核子研究組織的大型強(qiáng)子對(duì)撞機(jī)[3]每秒鐘能夠產(chǎn)生大于100 TB的碰撞數(shù)據(jù);GenBank[4]是全球最大的DNA序列數(shù)據(jù)庫之一,其中已經(jīng)包含了超過1 200億個(gè)堿基數(shù)據(jù),并且這一數(shù)量每9~12個(gè)月翻一番。物理學(xué)、地球?qū)W、醫(yī)學(xué)等許多領(lǐng)域的數(shù)據(jù)量也在快速增長(zhǎng)。
科學(xué)工作流管理系統(tǒng)(SWFMS)對(duì)于科學(xué)計(jì)算有重要的意義,它們提供了工作流定義、過程協(xié)調(diào)、作業(yè)調(diào)度與執(zhí)行、資源跟蹤和容錯(cuò)等功能。Taverna[5],Kepler[6],Vistrails[7],Pegasus[8],Sw ift[9],VIEW[10]等工作流系統(tǒng)在許多領(lǐng)域都有廣泛的應(yīng)用,如物理學(xué)、天文學(xué)、生物信息學(xué)、神經(jīng)科學(xué)、地球?qū)W和社會(huì)科學(xué)等。同時(shí),科學(xué)設(shè)備和網(wǎng)絡(luò)計(jì)算的發(fā)展向可靠的工作流系統(tǒng)在數(shù)據(jù)規(guī)模和應(yīng)用復(fù)雜度方面發(fā)起了新的挑戰(zhàn)。
高性能計(jì)算(high performance computing,HPC)是計(jì)算機(jī)科學(xué)的一個(gè)分支,可以最大限度提高系統(tǒng)的I/O、計(jì)算和數(shù)據(jù)傳送性能。主要用于解決大規(guī)??茖W(xué)問題的計(jì)算和海量數(shù)據(jù)的處理,如科學(xué)研究、氣象預(yù)報(bào)、計(jì)算模擬、軍事研究、CFD/CAE、生物制藥、基因測(cè)序、圖像處理等。
本文提出一個(gè)將科學(xué)工作流系統(tǒng)與高性能計(jì)算平臺(tái)結(jié)合的方案,集成方案涵蓋工作流定義與提交、流程解析、任務(wù)調(diào)度與執(zhí)行以及狀態(tài)監(jiān)測(cè)等工作流管理涉及到的所有主要過程。既能靈活方便地描述大規(guī)模的應(yīng)用流程,又能有效地利用高性能計(jì)算集群資源管理和任務(wù)調(diào)度功能,實(shí)現(xiàn)對(duì)大規(guī)模HPC應(yīng)用并行化端到端的支持。
學(xué)術(shù)界和業(yè)界根據(jù)不同研究和應(yīng)用方向開發(fā)出各具特點(diǎn)的工作流系統(tǒng)[11],隨著科學(xué)計(jì)算過程中數(shù)據(jù)信息的處理規(guī)模急劇增長(zhǎng),集群計(jì)算資源在科學(xué)工作流中扮演著越來越重要的角色。一些研究集中在基于Taverna工作流系統(tǒng)與網(wǎng)格環(huán)境協(xié)作,如UNICORE plugin[12]、gLite plugin[13]、caGrid plugin[14]等,它們使Taverna工作流系統(tǒng)能夠便捷地訪問網(wǎng)格計(jì)算資源;基于Windows平臺(tái)工作流系統(tǒng)的研究專注于Windows Workflow Foundation (WWF)[15-16]的相關(guān)應(yīng)用和平臺(tái)架構(gòu)[17],如MyCoG。NET[18]實(shí)現(xiàn)WWF和Globus網(wǎng)格服務(wù)無縫結(jié)合,基于WWF的Trident[19]為NEPTUNE[20]海洋學(xué)項(xiàng)目、Pan-STARRS[21]天文學(xué)項(xiàng)目等科學(xué)研究提供高效的科學(xué)工作流平臺(tái)。由于Windows HPC Server并不支持應(yīng)用流程的管理和定制,使用WWF工作流工具并不能有效地支持大規(guī)模的并行應(yīng)用,也沒有實(shí)現(xiàn)和Windows HPC Server的有效的集成。
Sw ift工作流系統(tǒng)提供了可以實(shí)現(xiàn)和各種資源管理器和任務(wù)調(diào)度器協(xié)作的Provider接口,目前已經(jīng)實(shí)現(xiàn)了的接口包括PBS[22]、Condor[23]、Globus Toolkit 4[24]等,它們也使Sw ift工作流系統(tǒng)能夠便捷獲取網(wǎng)格等計(jì)算資源;文獻(xiàn)[25]研究了工作流系統(tǒng)與云計(jì)算的集成方案,詳細(xì)描述了將工作流管理作為云服務(wù)的集成架構(gòu),并以Sw ift工作流系統(tǒng)與OpenNebula云平臺(tái)集成為例,驗(yàn)證并分析集成方案的功能。這些研究主要集中在工作流系統(tǒng)與網(wǎng)格計(jì)算、云計(jì)算和分布式計(jì)算等計(jì)算資源的協(xié)作。工作流系統(tǒng)與高性能計(jì)算集群資源相結(jié)合方面的研究并不多見。
文獻(xiàn)[26]等實(shí)現(xiàn)了基于MATLAB的SSH工具包,用戶可以使用簡(jiǎn)單的MATLAB命令訪問遠(yuǎn)程高性能計(jì)算資源,運(yùn)行MATLAB應(yīng)用并獲取運(yùn)行結(jié)果。文獻(xiàn)[27]探討了使用Windows高性能計(jì)算資源進(jìn)行并行化地理空間分析,Windows HPC Server運(yùn)行Inverse Distance Weighting (IDW)應(yīng)用程序,IDW程序的運(yùn)行的整體流程包括域分解、空間內(nèi)插、輸出采集及數(shù)據(jù)可視化。這些研究主要是基于科學(xué)應(yīng)用訪問Windows高性能計(jì)算資源,并沒有深入探討應(yīng)用程序運(yùn)行過程中的計(jì)算并行化與流程管理。
本文首先介紹科學(xué)工作流系統(tǒng)與高性能計(jì)算集成的統(tǒng)一架構(gòu),并分析架構(gòu)的重要組成子系統(tǒng)和組件,然后以Sw ift科學(xué)工作流管理系統(tǒng)與Windows高性能計(jì)算平臺(tái)集成方案為例,通過對(duì)Sw ift與Windows HPC的架構(gòu)進(jìn)行分析,映射到參考架構(gòu)中,從而進(jìn)一步驗(yàn)證集成參考架構(gòu)的可行性。
科學(xué)工作流管理系統(tǒng)與高性能計(jì)算集成的參考架構(gòu)可以作為一種規(guī)范化工作流系統(tǒng)與高性能計(jì)算集成的研究和開發(fā)工作的嘗試,如圖1所示,參考架構(gòu)包含5個(gè)邏輯層和11個(gè)主要的功能子系統(tǒng),自上而下涵蓋從工作流定義、任務(wù)調(diào)度到最終大規(guī)模應(yīng)用的整體過程。第一層是開發(fā)層,其中包括工作流的開發(fā)環(huán)境、提交軟件工具等服務(wù)及相應(yīng)的操作環(huán)境;第二層稱作工作流管理層,這一層包括4個(gè)子系統(tǒng):工作流引擎、任務(wù)管理、工作流監(jiān)控和資源配置管理;第三層稱作集成中間件層,由任務(wù)提交組件和計(jì)算資源供應(yīng)服務(wù)組成;第四層為高性能計(jì)算管理層,由作業(yè)執(zhí)行組件、資源調(diào)度系統(tǒng)和集群管理系統(tǒng)組成;最后一層為應(yīng)用層,簡(jiǎn)要描述基于集成平臺(tái)的科學(xué)應(yīng)用。
參考架構(gòu)允許科學(xué)工作流與高性能計(jì)算研究人員根據(jù)不同的工作流系統(tǒng)和高性能計(jì)算平臺(tái)特性,定制可用的集成平臺(tái)以滿足大規(guī)模數(shù)據(jù)處理和科學(xué)計(jì)算等需求。
Sw ift系統(tǒng)作為科學(xué)工作流和并行計(jì)算之間的橋梁,是一個(gè)面向大規(guī)模科學(xué)和工程工作流的快速、可靠的定義、執(zhí)行和管理的并行化編程工具。Sw ift采用結(jié)構(gòu)化的方法管理工作流的定義、調(diào)度和執(zhí)行,它包含簡(jiǎn)單的腳本語言Sw iftScript[28],Sw iftScript可以用來簡(jiǎn)潔地描述基于數(shù)據(jù)集類型和迭代的復(fù)雜并行計(jì)算[29],同時(shí)還可以對(duì)不同數(shù)據(jù)格式的大規(guī)模數(shù)據(jù)進(jìn)行動(dòng)態(tài)的數(shù)據(jù)集映射。運(yùn)行時(shí)系統(tǒng)提供一個(gè)高效的工作流引擎用來進(jìn)行調(diào)度和負(fù)載均衡,它還可以與PBS和Condor等資源管理系統(tǒng)進(jìn)行交互,完成任務(wù)執(zhí)行。
圖2為Sw ift系統(tǒng)架構(gòu),由4個(gè)主要組件組成:工作流定義、調(diào)度、執(zhí)行、資源供應(yīng)。使用簡(jiǎn)單高效的腳本語言Sw iftScript定義計(jì)算,Sw iftScript腳本被編譯成抽象的計(jì)算計(jì)劃,然后被工作流引擎調(diào)度到分配的資源上執(zhí)行。Sw ift中的資源配置非常的靈活,任務(wù)可以被調(diào)度到多種資源環(huán)境中執(zhí)行,資源供應(yīng)者的接口可以是本地主機(jī)、集群環(huán)境、多站點(diǎn)網(wǎng)格環(huán)境或Amazon EC2服務(wù)。
圖1 集成參考架構(gòu)
圖2 Sw ift架構(gòu)
Windows HPC Server[30]可為以超級(jí)計(jì)算機(jī)為主的HPC環(huán)境提供企業(yè)級(jí)的工具、性能和伸縮性,而且是一個(gè)完整、綜合的集群環(huán)境,包含操作系統(tǒng)、HPC工作調(diào)度器、消息傳遞接口第二版(M IP2)支持、集群慣例和監(jiān)視、分布式Excel計(jì)算能力、空閑Windows 7系統(tǒng)工作站利用能力等等。
Windows HPC Server集群架構(gòu)由一系列節(jié)點(diǎn)、組件、服務(wù)及接口組成。集群中關(guān)鍵組件包括Head Node、Compute Node、Job Scheduler和Broker Node(用于支持SOA集群):
1) Head Node:作為管理單元,對(duì)集群進(jìn)行作業(yè)調(diào)度。它提供了故障轉(zhuǎn)移和控制,并調(diào)節(jié)集群資源訪問。
2) Compute Node:執(zhí)行需要執(zhí)行的計(jì)算任務(wù),這些任務(wù)由作業(yè)調(diào)度器分配到計(jì)算節(jié)點(diǎn)中。
圖3 Windows HPC Server架構(gòu)
3) Job Scheduler:將作業(yè)和其相關(guān)的任務(wù)進(jìn)行排隊(duì),它給這些作業(yè)分配資源,在計(jì)算節(jié)點(diǎn)上加入新的任務(wù),并且對(duì)作業(yè)、任務(wù)和計(jì)算節(jié)點(diǎn)進(jìn)行狀態(tài)監(jiān)控。
圖4 Sw ift與Windows HPC Server集成架構(gòu)
4) Broker Node:在應(yīng)用程序和服務(wù)之間扮演中介的角色,代理對(duì)服務(wù)進(jìn)行負(fù)載平衡,最后將結(jié)果返回到應(yīng)用程序。
Sw ift工作流管理系統(tǒng)提供結(jié)構(gòu)化的方法管理工作流的定義、調(diào)度和執(zhí)行;W indows HPC提供基于Windows平臺(tái)的集群管理、任務(wù)管理、任務(wù)調(diào)度等機(jī)制和開發(fā)接口。將Windows HPC Server與Sw ift工作流并行計(jì)算系統(tǒng)映射到集成參考架構(gòu)中,可以實(shí)現(xiàn)Windows平臺(tái)上的大規(guī)模并行計(jì)算與工作流應(yīng)用,相應(yīng)的實(shí)例集成架構(gòu)描述如圖4所示。
工作流開發(fā)層:提供工作流定義腳本Sw iftScript的開發(fā)環(huán)境,并提供接口用于提交工作流。
Sw ift工作流管理層:Sw ift通過解析腳本語言Sw iftScript的工作流流程定義、數(shù)據(jù)調(diào)用和配置信息,工作流引擎將整個(gè)工作流任務(wù)進(jìn)行分片,并通過定制的接口與集成中間件層進(jìn)行交互,在任務(wù)調(diào)度器的調(diào)度下,使得數(shù)據(jù)處理在集群中并行執(zhí)行。
集成中間件層:該層中包含Windows HPC Server Provider和Sw iftHpcService兩個(gè)組件。Sw ift提供的Provider接口可以實(shí)現(xiàn)和各種資源管理器和任務(wù)調(diào)度器相互協(xié)作的功能。Provider接口定義了跟任務(wù)運(yùn)行相關(guān)的一些功能,包括任務(wù)提交、任務(wù)結(jié)束、任務(wù)取消和獲取任務(wù)狀態(tài)等。Windows HPC Server Provider是針對(duì)Windows HPC Server平臺(tái)的Provider接口的具體實(shí)現(xiàn)。本文開發(fā)了基于Windows Communication Foundation (WCF) Service的Sw iftHpcService服務(wù)并部署在集群的Head Node中,Windows HPC Server Provider組件通過調(diào)用Sw iftHpcService提供的相應(yīng)服務(wù),將任務(wù)提交到Windows HPC計(jì)算集群中,Windows HPC Server層根據(jù)服務(wù)配置信息返回計(jì)算任務(wù)狀態(tài)給Sw ift工作流管理層。
W indows HPC Server層:提供了完善的W indows平臺(tái)上的集群管理、任務(wù)管理、任務(wù)調(diào)度等機(jī)制和開發(fā)接口,通過定制的接口與集成中間件層進(jìn)行交互,Job Scheduler組件調(diào)度由中間件層提交的計(jì)算任務(wù),分配相應(yīng)的計(jì)算資源,完成工作流任務(wù)執(zhí)行。
應(yīng)用層:主要是描述可以在此集成方案的架構(gòu)下運(yùn)行的高性能并行計(jì)算應(yīng)用,如MODIS圖片處理、蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)和分子結(jié)構(gòu)模擬等。
本文通過NASA MODIS圖片處理工作流分析并驗(yàn)證Sw ift工作流系統(tǒng)與Windows HPC Server集成的功能。輸入數(shù)據(jù)為120個(gè)大小為5.5 MB左右的衛(wèi)星航拍數(shù)據(jù)塊,數(shù)據(jù)塊中含有水域、沙地、綠地和城市等地質(zhì)特點(diǎn),計(jì)算這些數(shù)據(jù)塊中城市面積最大的前12個(gè)地區(qū)。
使用5臺(tái)計(jì)算機(jī),其中包括1臺(tái)Sw ift Client、1臺(tái)HPC Head Node和3臺(tái)Compute Node,其中Head Node中還部署有Broker Node、Active Directory服務(wù)器和NFS服務(wù)器端。集群環(huán)境和節(jié)點(diǎn)配置如圖5所示。
圖5 集群環(huán)境配置
實(shí)驗(yàn)中通過圖片的像素和顏色計(jì)算城市的面積,再獲取面積最大的前12個(gè)地區(qū)。首先將圖片文件存儲(chǔ)在NFS共享文件系統(tǒng)中,配置Sw ift與Windows HPC Server交互接口;然后執(zhí)行Sw iftScript工作流腳本NASA MODIS圖片處理工作流為:
如圖6所示,Sw ift能夠根據(jù)輸入目錄下的modis數(shù)據(jù)文件的數(shù)量,自動(dòng)動(dòng)態(tài)地將工作流解析成為對(duì)這120個(gè)圖片進(jìn)行處理的執(zhí)行計(jì)劃,并把并行的任務(wù)發(fā)送到Windows HPC Server的Head Node,然后Job Scheduler根據(jù)資源使用情況為任務(wù)分配計(jì)算資源。衛(wèi)星云圖加載后,對(duì)每張圖片的計(jì)算被識(shí)別為任務(wù)并提交給getLanduse接口進(jìn)行城域面積的分析,然后提交給analyzeLandUse接口對(duì)圖片中的陸地部分進(jìn)行進(jìn)一步的分析和計(jì)算,得出面積最大的12張圖片,將其文件名列表存入urbantiles文件中,并將其逐一轉(zhuǎn)換成png文件,最后合成一張整圖,如圖7所示。
實(shí)驗(yàn)過程中,可以不斷向集群中動(dòng)態(tài)添加計(jì)算節(jié)點(diǎn),集群性能也不斷提高,動(dòng)態(tài)添加計(jì)算節(jié)點(diǎn)性能增長(zhǎng)如圖8所示。隨著節(jié)點(diǎn)數(shù)的增加,運(yùn)行時(shí)間也在相應(yīng)縮短,獲得的加速基本呈線性增長(zhǎng),且接近理想值(虛線為理想加速值,實(shí)線為實(shí)際加速值)。同時(shí),隨著節(jié)點(diǎn)的不斷增多,性能的增加趨于平緩,理想加速值與實(shí)際加速值的差不斷擴(kuò)大,在集群規(guī)模不斷擴(kuò)大的情況下,節(jié)點(diǎn)間的通信開銷和NFS作為共享文件系統(tǒng)所帶來的開銷逐漸成為制約集群整體性能提升的瓶頸。所以當(dāng)處理的數(shù)據(jù)規(guī)模一定時(shí),用戶需要綜合考慮任務(wù)處理規(guī)模與數(shù)據(jù)量來決定集群規(guī)模,這樣才能獲取更高的性價(jià)比。
圖6 工作流計(jì)算流程(局部)
圖7 工作流計(jì)算結(jié)果
圖8 圖片處理與性能
通過這個(gè)應(yīng)用實(shí)例,本文演示了Sw ift和W indows HPC Server的集成過程,集成的成功應(yīng)用、W indows HPC Server本身對(duì)計(jì)算節(jié)點(diǎn)的調(diào)度、以及用HPC集群所獲得的線性加速。同時(shí),W indows HPC Server可以從微軟Azure云平臺(tái)中獲取計(jì)算資源,Sw ift不僅可以利用Azure云平臺(tái)提供的伸縮性和資源按需分配等優(yōu)勢(shì),而且可以為Azure提供一個(gè)靈活的工作流應(yīng)用定制前端和界面。
數(shù)據(jù)與計(jì)算的大規(guī)模化趨勢(shì)對(duì)人們生活的影響越來越深入,相應(yīng)的技術(shù)與概念也不斷涌現(xiàn),基于海量數(shù)據(jù)的計(jì)算從數(shù)據(jù)存儲(chǔ)到并行化處理,整個(gè)過程需要不同的技術(shù)支撐,產(chǎn)生了許多基于不同系統(tǒng)與架構(gòu)的解決方案。
本文提出科學(xué)工作流系統(tǒng)與高性能計(jì)算平臺(tái)相結(jié)合的集成參考架構(gòu),實(shí)現(xiàn)高性能計(jì)算平臺(tái)上的大規(guī)模并行計(jì)算,在提供資源管理和集群調(diào)度的同時(shí),為用戶提供方便的應(yīng)用定制和管理前端,實(shí)現(xiàn)對(duì)大規(guī)模HPC應(yīng)用的端到端的支持。以Sw ift工作流系統(tǒng)與W indows HPC Server集成的方案為例,通過NASA MODIS圖片處理工作流來分析并驗(yàn)證集成方案的可行性和性能,以及對(duì)應(yīng)用的線性加速效果。Sw ift系統(tǒng)和Windows HPC Server的有效集成能促進(jìn)更多領(lǐng)域、更大規(guī)模的HPC應(yīng)用運(yùn)行在W indows的集群和云平臺(tái)環(huán)境中。同時(shí),集成參考架構(gòu)的提出能夠?yàn)橐?guī)范化工作流系統(tǒng)與高性能計(jì)算平臺(tái)的集成研究提供參考與實(shí)例,結(jié)合工作流系統(tǒng)與高性能計(jì)算的優(yōu)勢(shì)與特點(diǎn)以應(yīng)對(duì)科學(xué)計(jì)算日益增長(zhǎng)的規(guī)模與復(fù)雜度。
在后期的研究工作中會(huì)考慮使用更高效的分布式文件系統(tǒng)來進(jìn)行數(shù)據(jù)的存儲(chǔ),突破由NFS所帶來的性能瓶頸。同時(shí),在現(xiàn)有統(tǒng)一集成框架的基礎(chǔ)上,進(jìn)一步研究工作流系統(tǒng)與其他高性能計(jì)算平臺(tái)集成的實(shí)現(xiàn),實(shí)現(xiàn)高性能計(jì)算平臺(tái)上的大規(guī)模并行計(jì)算與應(yīng)用流程管理等功能。
[1] ROGERS S. Big data is scaling BI and analytics[J].Information Management, 2011, 21(5): 14.
[2] BELL G, HEY T, SZALAY A. Beyond the data deluge[J].Science, 2009, 323(5919): 1297-1298.
[3] Conseil Européen pour la Recherche Nucléaire(CERN).Large Hadron Collider[R/OL]. [2012-03-02] http://lhc.web.cern.ch.
[4] National Center for Biotechnology Information(NCBI).GenBank Overview[R/OL]. [2012-03-03]. http://www.ncbi.nlm.nih.gov/genbank
[5] HULL D, WOLSTENCROFT K, STEVENS R, et al. A tool for building and running workflows of services[J]. Nucleic Acids Research, 2006, 34(suppl 2): 729-732.
[6] LUD?SCHER B, ALTINTAS I, BERKLEY C, et al.Scientific workflow management and the Kepler system[J].Concurrency and Computation: Practice and Experience,2006, 18(10): 1039-1065.
[7] FREIRE J, SILVA C T, CALLAHAN S P, et al. Managing rapidly-evolving scientific workflows, provenance and annotation of data[J]. Lecture Notes in Computer Science,2006(4145): 10-18.
[8] DEELMAN E, SINGH G, SU MH, et al. Pegasus: a framework for mapping complex scientific workflows onto distributed systems[J]. Scientific Programming, 2005, 13(3):219-237.
[9] ZHAO Y, HATEGAN M, CLIFFORD B, et al. Fast, reliable,loosely coupled parallel computation[C]//2007 IEEE Congress on Services. Salt Lake City: IEEE Computer Society, 2007.
[10] LIN C, LU S Y, LAI Z Q, et al. Service-oriented architecture for view: a visual scientific workflow management system[C]//Proc of the IEEE 2008 International Conference on Services Computing (SCC).Honolulu: IEEE Computer Society, 2008.
[11] 羅海濱, 范玉順, 吳澄. 工作流技術(shù)綜述[J]. 軟件學(xué)報(bào),2000, 11(7): 89-90.
LUO Hai-bin, FAN Yu-shun, WU Cheng. Overview of workflow technology[J]. Journal of Software, 2000, 11(7):89-90.
[12] HOLL S, ZIMMERMANN O, HOFMANN-APITIUS M.A unicore plugin for hpc-enabled scientific workflows in taverna 2.2[C]//IEEE Congress on Services (SERVICES).Washington D C: IEEE Computer Society, 2011.
[13] MAHESHWARI K, GOBLE C, M ISSIER P, et al. Medical image processing workflow support on the EGEE grid w ith Taverna[C]//IEEE International Symposium on Computer-Based Medical Systems (CBMS). A lbuquerque: IEEE,2009.
[14] TAN W, MADDURI R, NENADIC A, et al. CaGrid workflow toolkit: a taverna based workflow tool for cancer grid[J]. BMC Bioinformatics, 2010, 11(1): 542.
[15] Windows Workflow Foundation(WWF). Windows Workflow Foundation Introduction[R/OL]. [2012-03-02].http://www.w indowsworkflow foundation.eu/
[16] 楊利國. 基于WF工作流技術(shù)研究及應(yīng)用[D]. 武漢: 武漢理工大學(xué), 2008.
YANG Li-guo. Research and application based on w indows workflow foundation technology[D]. Wuhan:Wuhan University of Technology, 2008.
[17] ZAPLETAL M, Van der Aalst W M P, RUSSELL N, et al.An analysis of w indows workflow's control-flow expressiveness[C]//Seventh IEEE European Conference on Web Services. Eindhoven: IEEE Computer Society, 2009.
[18] PAVENTHAN A, TAKEDA K, COX S J, et al. Leveraging w indows workflow foundation for scientific workflow s in w ind tunnel applications[C]//22nd International Conference on Data Engineering Workshops. Atlanta:IEEE Computer Society, 2006.
[19] BARGA R, JACKSON J, ARAUJO N, et al The trident scientific workflow workbench[C]//Fourth International Conference on Science. Indianapolis: IEEE Computer Society, 2008.
[20] BARGA R, JACKSON J, ARAUJO N, et al. Trident:scientific workflow workbench for oceanography[C]//IEEE Congress on Services - Part I. Honolulu: IEEE Computer Society, 2008.
[21] SIMMHAN Y, BARGA R, Van INGEN C, et al. Building the trident scientific workflow workbench for data management in the cloud[C]//Third International Conference on Advanced Engineering Computing and Applications in Sciences. Sliema: IEEE Computer Society,2009.
[22] BODE B, HALSTEAD D M, KENDALL R, et al. The portable batch scheduler and the maui scheduler on linux clusters[C]//ALS'00 Proceedings of the 4th Annual Linux Show case & Conference. Berkeley: USENIX Association,2000.
[23] BERMAN F, FOX G, HEY A J G. Grid computing: making the global infrastructure a reality[M]. Chichester: John Wiley & Sons, Ltd, 2003.
[24] FOSTER I. Globus Toolkit version 4: software for service-oriented systems[J]. Journal of Computer Science and Technology, 2006, 21(4): 513-520.
[25] ZHAO Y, LI Y F, TIAN W H, et al. Scientific-workflowmanagement-as-a-service in the cloud[C]//2012 Second International Conference on Cloud and Green Computing(CGC). Xiangtan: IEEE Computer Society, 2012.
[26] NEHRBASS J, SAMSI S, CHAVES J C, et al. Interfacing PC-BASED MATLAB directly to HPC resources[C]//HPCMP Users Group Conference. Denver, Colorado: IEEE,2006.
[27] XIA Y J, SHI X M, KUANG L, et al. Parallel geospatial analysis on w indows HPC platform[C]//2010 International Conference on Environmental Science and Information Application Technology (ESIAT). Wuhan: IEEE, 2010.
[28] W ILDE M, HATEAGN M, WOZNIAK J M, et al. A language for distributed parallel scripting[J]. Parallel Computing, 2011, 37(9): 633-652.
[29] ZHAO Y, DOBSON J, FOSTER I, et al. A notation and system for expressing and executing cleanly typed workflows on messy scientific data[J]. ACM SIGMOD Record, 2005, 34(3): 37-43.
[30] M icrosoft. HPC - Technical Overview of Windows HPC Server 2008 R2 [R/OL]. [2012-03-01]. http://www.microsoft.com/download/en/details.aspx?id=434
編 輯 稅 紅