




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
計算機論文:基于LSTM的時間序列預測算法的并行化計算機研究本文是一篇計算機論文研究,本課題主要探討的內容是:基于LSTM的時間序列預測算法的并行化研究,主要針對的問題是,當LSTM算法面對規模過于龐大的數據集,或者應對多節點分布式集群時,處理能力不夠高效的問題。為了解決上述問題,本文在第一章第1.1節分析了工作背景后得出了一個可行的解決思路:首先,引入大數據平臺YARN,其無論是應對分布式集群資源管理,還是面對大批量的數據處理,都有較為成熟的技術支撐,可以作為一個較好的頂層資源管理調度和任務分配框架。其次,引入支持一定分布式架構功能的TensorFlow框架,配合上TensorFlow框架對GPU利用和深度學習算法的良好支撐,作為銜接底層LSTM算法和頂層YARN框架之間的橋梁。最后,將LSTM算法并行化處理,在并行化過程中,尤其注意LSTM算法與上層分布式框架的適配性,選取合適的并行化方法。
第一章緒論
1.1研究工作的背景與意義
深度學習(DeepLearning)是一種人工智能技術,它模仿人腦在處理數據和創建用于決策的模式方面的工作。深度學習是人工智能(AI)中機器學習的一個子集,它具有能夠從未結構化或未標記的數據中不受監督地學習的網絡。也稱為深度神經學習或深度神經網絡。
深度學習與數字時代同步發展,數字時代帶來了來自世界各地的各種形式的數據爆炸式增長。這些數據(簡稱為大數據)來自社交媒體,互聯網搜索引擎,電子商務平臺和在線電影院等資源。大量數據易于訪問,可以通過云計算等相關科技應用程序共享。
但是,通常是非結構化的數據如此龐大,以至于人類可能需要數十年才能理解并提取相關信息。人們意識到,挖掘這些豐富的信息可能會帶來令人難以置信的潛力,并且越來越多地采用AI系統進行自動化支持,但與此同時,過于龐雜的非結構化數據也導致了深度學習訓練的時間成本和硬件成本居高不下。尤其是當需要分析的數據達到PB級別時更是如此。
此外,不僅僅是數據成本會導致上述問題,當深度學習涉及的計算維度增大時,過于高昂的學習成本和容錯性也會帶來不可避免的問題。
另一方面,大數據(BigData)技術則主要關注龐大,快速或復雜的數據,它們往往因其特性而很難或不可能使用傳統方法進行處理。訪問和存儲大量信息以進行分析的行為已經存在了很長時間。但是大數據的概念在2000年代初得到了發展,當時行業分析師道格·蘭尼(DougLaney)將當今主流的大數據定義表達為三個V:
數量:組織從各種來源收集數據,包括商業交易,智能(IoT)設備,工業設備,視頻,社交媒體等。在過去,存儲它曾經是一個問題–但是在Hadoop等平臺上更便宜的存儲減輕了負擔。
速度:隨著物聯網的發展,數據以前所未有的速度流入企業,必須及時處理。RFID標簽,傳感器和智能儀表推動了近實時處理這些數據洪流的需求。
種類繁多:數據有各種格式-從傳統數據庫中的結構化數字數據到非結構化文本文檔,電子郵件,視頻,音頻,股票行情記錄數據和財務交易。
.....................
1.2國內外研究歷史與現狀
在文獻[9]中,作者提出了一種并發多維的“金字塔”式的LSTM算法——PyraMiD-LSTM。該算法主要針對圖像識別,識別在生物醫學中掃描大腦切片的圖片并進行快速分割分類的操作。
論文首先比較了傳統CNN算法的缺點,認為對于視頻中的每一幀或者圖像中的每個像素點來說,CNN算法只接受嚴格的時間前后序數據作為輸入。相比之下,多維RNN(MD-RNNs)尤其是多維LSTM(MD-LSTM),對于每個時間點,均可接受時間和空間上的前序數據作為輸入。
其次,論文提出了自己的PyraMiD-LSTM的特點,新模型里放棄了逐像素正方形式(Cuboid)運算的方式,改為逐像素金字塔式(Pyramidal)運算。這使得PyraMiD-LSTM的并行運算性能大大提高,增強了GPU對3D數據例如腦切片圖(BrainSliceImages)的處理能力。
標準的多維LSTM由4個LSTM組成,每個LSTM沿著x,y坐標軸方向傳輸數據,以東北->西南方向LSTM為例,每個像素點接收鄰近的左,上2個方位的數據。二維LSTM從東北->西南,東南->西北,西南->東北,西北->東南四個方向傳輸數據,每個像素點要接收4個LSTM的輸出數據。將其旋轉45°,其間產生了許多空隙,填充額外的連接,這樣每個像素接收到了西,西北,西南3個方位的數據,加上本身一共4個格子,構成了金字塔式連接(PyraMiDLSTM),因此算上四個方向,每個像素可以接收鄰近8個方位的數據,比二維LSTM提升了一倍。
這一點微小的改變,使得對于每個PyraMiD-LSTM,像素收到的數據一定是從北,西北,東北方向傳來,每次可以處理一橫行的像素,逐行像素處理相比于逐個像素處理,大大提高了在GPU上并行運算的效率。
.............................
第二章YARN-TensorFlow復合系統設計
2.1復合系統與LSTM結合的可行性分析
從第一章的討論中可以看出,使用包括LSTM算法在內的深度學習算法進行時序序列預測時,當算法面臨著越來越龐雜的數據需求,或者面臨要在多節點集群上進行訓練分析時,其所承擔的效率壓力將會越來越大。
而另一方面,并行化和大數據技術,則恰好是解決數據壓力和效率壓力的一個較好的突破口。
一方面,YARN作為一個成熟的大數據框架,具有良好的分布式資源調度能力和優秀的大數據處理能力。另一方面,TensorFlow作為一個廣泛使用的深度學習框架,其有較為良好的對GPU運算能力的支撐和可行的對分布式架構的支持。如果能夠解決深度學習框架和大數據技術的結合難題,并且針對深度學習算法本身進行進一步的并行化改造,將三者的優點和長處結合在一起,將有可能極大地緩解LSTM算法在處理大批量數據和協調多節點集群時所面臨的巨大的效率壓力和數據壓力。
因此,本文計劃設計這樣一個復合系統:
以LSTM算法作為項目底層算法支撐,提供有效的針對時序序列預測的深度學習算法;以YARN作為項目頂層分布式架構支撐,利用YARN本身的特性,有效的進行資源調度預分配,為分布式并行化計算提供可靠的性能支撐。
而TensorFlow,作為一個跨平臺、有分布式相關支持的開源ML軟件庫,可以有效的起到類似中間件的效果,連接頂層的YARN和底層的LSTM,為兩者搭起橋梁。
需要注意的是,盡管TensorFlow本身提供了一定的分布式部署的相關功能支撐,但是其本身功能仍然較為簡陋,因此,僅僅依靠TensorFlow自身來搭建分布式架構仍然欠妥,因此這里仍然需要結合YARN來搭建。
............................
2.2復合系統基本框架設計
一個常規的YARN框架應當包含三個主要組件[13]:ResourceManager(以下簡稱RM),ApplicationManager(以下簡稱AM)和NodeManager(以下簡稱NM),分別負責資源調度,應用任務分配和節點管理,用戶提交一個Application給YARN系統,則系統由AM接收,拆分出多個Task,并通過向RM申請的方式,分配給多個NM,NM本身維持一個與RM的心跳連接,匯報自身情況,作為RM進行資源調度的參考。
具體YARN架構如圖2-2所示。
而一個常規的分布式TensorFlow架構目前而言仍然較為簡陋。以常見的PS架構(ParameterServer)為例,一個分布式TensorFlow集群(cluster)由一個或多個TensorFlow服務器(Server)組成[14],Server在邏輯上被劃分成兩類:用于存放模型參數的ParameterServer和負責計算參數梯度的Worker。每個Server都有與之對應的一個Task,而分布式TensorFlow本身最大的問題就是,所有Task與server的綁定關系是需要用戶手動配置的,其容錯性、調度能力均非常有限。
..........................
第三章并行化LSTM算法設計.........................23
3.1并行化LSTM算法設計.....................23
3.2算法實現...............................24
第四章仿真實驗結果分析............................................55
4.1實驗運行環境..............................55
4.2YARN-TensorFlow復合系統性能實驗.......................55
第五章全文總結與展望..........................79
5.1全文總結..............................79
5.2后續工作展望..........................81
第四章仿真實驗結果分析
4.1實驗運行環境
本實驗需要用到多臺設備用以搭建集群,設備眾多性能中,會對運行速率產生較大影響的因素包括:GPU顯存、GPU核數、CPU核數、內存容量等。本次實驗前后共計使用到了4臺設備,它們具體的關于上述參數的配置信息如表(2-16)所示。
實驗數據采用了一組開源的電池數據,由于涉及到LSTM算法改進實現的相關描述,具體數據格式與數據內容會在3.2節進行介紹,在此不做贅述。
實驗中深度學習算法訓練內容為給出截至目前為止的電池充放電狀態記錄,預測出未來一段時間的電池狀態情況。
實驗主要目的為通過設置對比實驗,判斷比較YARN+TensorFlow的組合方案,相較于僅采用分布式TensorFlow解決方案而言,在運算效率和運算速度上,是否有改進。
.........................
第五章全文總結與展望
5.1全文總結
本課題主要探討的內容是:基于LSTM的時間序列預測算法的并行化研究,主要針對的問題是,當LSTM算法面對規模過于龐大的數據集,或者應對多節點分布式集群時,處理能力不夠高效的問題。
為了解決上述問題,本文在第一章第1.1節分析了工作背景后得出了一個可行的解決思路:
首先,引入大數據平臺YARN,其無論是應對分布式集群資源管理,還是面對大批量的數據處理,都有較為成熟的技術支撐,可以作為一個較好的頂層資源管理調度和任務分配框架。
其次,引入支持一定分布式架構功能的TensorFlow框架,配合上TensorFlow框架對GPU利用和深度學習算法的良好支撐,作為銜接底層LSTM算法和頂層YARN框架之間的橋梁。
最后,將LSTM算法并行化處理,在并行化過程中,尤其注意LSTM算法與上層分布式框架的適配性,選取合適的并行化方法。
在基本思路定性之后,文章在第二章至第四章,采用自頂向下的順序,針對上述思路的基本實現方式進行了討論。
在第二章,文章重點討論了YARN框架的改進以及與下層TensorFlow的適配問題。
在YARN端,通過對原有YARN的任務分配代碼進行自定義,使得YARN在保留原有的ApplicationManager的應用管理機制和ResourceManager中的資源管理機制的前提下,作為資源管理和任務協調者,向下層被封裝在容器內的分布式TensoFlow發送任務和分配資源。
同時,在TensorFlow端,系統通過多工鏡像策略(MultiWorkerMirroredStrategy)來作為Tens
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 四星酒店經營與管理制度
- 服裝企業器具管理制度
- 公司工程車車輛管理制度
- 暑期現場安全管理制度
- 日常旅游酒店管理制度
- 十人小公司經典管理制度
- 二級學院研究生管理制度
- 公司派駐紀檢組管理制度
- 最終億通公司管理制度
- 交警自助終端機管理制度
- 護理學課件-鋪床法
- GB∕T 31062-2014 聚合物多元醇
- 氧、氬、二氧化碳氣體充裝企業風險點分級管控資料
- 公路水運工程施工安全標準化指南(42頁)
- 人教版 2021-2022學年 五年級下冊數學期末測試試卷(一)含答案
- 錫槽缺陷手冊(上
- 西門子SAMA圖DEH邏輯講解
- 管道支架重量計算表常用圖文精
- 國家開放大學《土木工程力學(本)》形考作業1-5參考答案
- 公司盡職調查提綱
- 運梁車(炮車)安全操作規程.doc
評論
0/150
提交評論