大數據技術原理與應用 第三章 分布式文件系統HDFS_第1頁
大數據技術原理與應用 第三章 分布式文件系統HDFS_第2頁
大數據技術原理與應用 第三章 分布式文件系統HDFS_第3頁
大數據技術原理與應用 第三章 分布式文件系統HDFS_第4頁
大數據技術原理與應用 第三章 分布式文件系統HDFS_第5頁
已閱讀5頁,還剩62頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、第三章 分布式文件系統HDFS提綱3.1 分布式文件系統分布式文件系統3.2 HDFS簡介簡介3.3 HDFS相關概念相關概念3.4 HDFS體系結構體系結構3.5 HDFS存儲原理存儲原理3.6 HDFS數據讀寫過程數據讀寫過程3.7 HDFS編程實踐編程實踐3.1分布式文件系統n3.1.1計算機集群結構n3.1.2分布式文件系統的結構3.1.1 計算機集群結構分布式文件系統把文件分布存儲到多個計算機節點上,成千上萬的計算機節點構成計算機集群與之前使用多個處理器和專用高級硬件的并行化處理裝置不同的是,目前的分布式文件系統所采用的計算機集群,都是由普通硬件構成的,這就大大降低了硬件上的開銷3.

2、1.1 計算機集群結構圖3-1 計算機集群的基本架構 3.1.2 分布式文件系統的結構分布式文件系統在物理結構上是由計算機集群中的多個節點構成的,這些節點分為兩類,一類叫“主節點”(Master Node)或者也被稱為“名稱結點”(NameNode),另一類叫“從節點”(Slave Node)或者也被稱為“數據節點”(DataNode)3.1.2 分布式文件系統的結構圖3-2 大規模文件系統的整體結構3.23.2HDFSHDFS簡介簡介總體而言,HDFS要實現以下目標:兼容廉價的硬件設備兼容廉價的硬件設備流數據讀寫流數據讀寫大數據集大數據集簡單的文件模型簡單的文件模型強大的跨平臺兼容性強大的跨

3、平臺兼容性HDFS特殊的設計,在實現上述優良特性的同時,也使得自身具有一些應用局限性,主要包括以下幾個方面:不適合低延遲數據訪問不適合低延遲數據訪問無法高效存儲大量小文件無法高效存儲大量小文件不支持多用戶寫入及任意修改文件不支持多用戶寫入及任意修改文件.1 塊塊HDFS默認一個塊64MB,一個文件被分成多個塊,以塊作為存儲單位塊的大小遠遠大于普通文件系統,可以最小化尋址開銷.1 塊塊HDFS采用抽象的塊概念可以帶來以下幾個明顯的好處: 支持大規模文件存儲支持大規模文件存儲:文件以塊為單位進行存儲,一個大規模文件可以被分拆成若干個文件塊,不同的文件塊可以被分發到不

4、同的節點上,因此,一個文件的大小不會受到單個節點的存儲容量的限制,可以遠遠大于網絡中任意節點的存儲容量 簡化系統設計簡化系統設計:首先,大大簡化了存儲管理,因為文件塊大小是固定的,這樣就可以很容易計算出一個節點可以存儲多少文件塊;其次,方便了元數據的管理,元數據不需要和文件塊一起存儲,可以由其他系統負責管理元數據 適合數據備份適合數據備份:每個文件塊都可以冗余存儲到多個節點上,大大提高了系統的容錯性和可用性.2 名稱節點和數據節點名稱節點和數據節點.2 名稱節點和數據節點名稱節點和數據節點在HDFS中,名稱節點(NameNode)負責管理分布式文件系統的命名空間

5、(Namespace),保存了兩個核心的數據結構,即FsImage和EditLogFsImage用于維護文件系統樹以及文件樹中所有的文件和文件夾的元數據操作日志文件EditLog中記錄了所有針對文件的創建、刪除、重命名等操作名稱節點記錄了每個文件中各個塊所在的數據節點的位置信息名稱節點的數據結構名稱節點的數據結構.2 名稱節點和數據節點名稱節點和數據節點圖3-3 名稱節點的數據結構 .2 名稱節點和數據節點名稱節點和數據節點FsImage文件包含文件系統中所有目錄和文件inode的序列化形式。每個inode是一個文件或目錄的元數據的內部表示,并包含此類信息:文件

6、的復制等級、修改和訪問時間、訪問權限、塊大小以及組成文件的塊。對于目錄,則存儲修改時間、權限和配額元數據FsImage文件沒有記錄塊存儲在哪個數據節點。而是由名稱節點把這些映射保留在內存中,當數據節點加入HDFS集群時,數據節點會把自己所包含的塊列表告知給名稱節點,此后會定期執行這種告知操作,以確保名稱節點的塊映射是最新的。FsImage文件文件.2 名稱節點和數據節點名稱節點和數據節點在名稱節點啟動的時候,它會將FsImage文件中的內容加載到內存中,之后再執行EditLog文件中的各項操作,使得內存中的元數據和實際的同步,存在內存中的元數據支持客戶端的讀操作。一旦在內存中成

7、功建立文件系統元數據的映射,則創建一個新的FsImage文件和一個空的EditLog文件名稱節點起來之后,HDFS中的更新操作會重新寫到EditLog文件中,因為FsImage文件一般都很大(GB級別的很常見),如果所有的更新操作都往FsImage文件中添加,這樣會導致系統運行的十分緩慢,但是,如果往EditLog文件里面寫就不會這樣,因為EditLog 要小很多。每次執行寫操作之后,且在向客戶端發送成功代碼之前,edits文件都需要同步更新名稱節點的啟動名稱節點的啟動.2 名稱節點和數據節點名稱節點和數據節點在名稱節點運行期間,HDFS的所有更新操作都是直接寫到EditLog

8、中,久而久之, EditLog文件將會變得很大雖然這對名稱節點運行時候是沒有什么明顯影響的,但是,當名稱節點重啟的時候,名稱節點需要先將FsImage里面的所有內容映像到內存中,然后再一條一條地執行EditLog中的記錄,當EditLog文件非常大的時候,會導致名稱節點啟動操作非常慢,而在這段時間內HDFS系統處于安全模式,一直無法對外提供寫操作,影響了用戶的使用名稱節點運行期間名稱節點運行期間EditLog不斷變大的問題不斷變大的問題.2 名稱節點和數據節點名稱節點和數據節點如何解決?答案是:SecondaryNameNode第二名稱節點第二名稱節點第二名稱節點是HDFS架構

9、中的一個組成部分,它是用來保存名稱節點中對HDFS 元數據信息的備份,并減少名稱節點重啟的時間。SecondaryNameNode一般是單獨運行在一臺機器上.2 名稱節點和數據節點名稱節點和數據節點.2 名稱節點和數據節點名稱節點和數據節點SecondaryNameNode的工作情況:的工作情況:(1)SecondaryNameNode會定期和NameNode通信,請求其停止使用EditLog文件,暫時將新的寫操作寫到一個新的文件edit.new上來,這個操作是瞬間完成,上層寫日志的函數完全感覺不到差別;(2)SecondaryNameNode通過HTTP GE

10、T方式從NameNode上獲取到FsImage和EditLog文件,并下載到本地的相應目錄下;(3)SecondaryNameNode將下載下來的FsImage載入到內存,然后一條一條地執行EditLog文件中的各項更新操作,使得內存中的FsImage保持最新;這個過程就是EditLog和FsImage文件合并;(4)SecondaryNameNode執行完(3)操作之后,會通過post方式將新的FsImage文件發送到NameNode節點上(5)NameNode將從SecondaryNameNode接收到的新的FsImage替換舊的FsImage文件,同時將edit.new替換EditLog

11、文件,通過這個過程EditLog就變小了.2 名稱節點和數據節點名稱節點和數據節點數據節點是分布式文件系統HDFS的工作節點,負責數據的存儲和讀取,會根據客戶端或者是名稱節點的調度來進行數據的存儲和檢索,并且向名稱節點定期發送自己所存儲的塊的列表每個數據節點中的數據會被保存在各自節點的本地Linux文件系統中數據節點數據節點(DataNode)3.4HDFS體系結構n3.4.1HDFS體系結構概述n3.4.2HDFS命名空間管理n3.4.3通信協議n3.4.4客戶端n3.4.5HDFS體系結構的局限性.1 HDFSHDFS體系結構概述體系結構概述 HDFS采用了

12、主從(Master/Slave)結構模型,一個HDFS集群包括一個名稱節點(NameNode)和若干個數據節點(DataNode)(如圖3-4所示)。名稱節點作為中心服務器,負責管理文件系統的命名空間及客戶端對文件的訪問。集群中的數據節點一般是一個節點運行一個數據節點進程,負責處理文件系統客戶端的讀/寫請求,在名稱節點的統一調度下進行數據塊的創建、刪除和復制等操作。每個數據節點的數據實際上是保存在本地Linux文件系統中的.1 HDFSHDFS體系結構概述體系結構概述圖3-4 HDFS體系結構 .2 HDFSHDFS命名空間管理命名空間管理 HDFS的命名空間包

13、含目錄、文件和塊 在HDFS1.0體系結構中,在整個HDFS集群中只有一個命名空間,并且只有唯一一個名稱節點,該節點負責對這個命名空間進行管理 HDFS使用的是傳統的分級文件體系,因此,用戶可以像使用普通文件系統一樣,創建、刪除目錄和文件,在目錄間轉移文件,重命名文件等.3 通信協議通信協議 HDFS是一個部署在集群上的分布式文件系統,因此,很多數據需要通過網絡進行傳輸 所有的HDFS通信協議都是構建在TCP/IP協議基礎之上的 客戶端通過一個可配置的端口向名稱節點主動發起TCP連接,并使用客戶端協議與名稱節點進行交互 名稱節點和數據節點之間則使用數據節點協議進行交互 客戶端與

14、數據節點的交互是通過RPC(Remote Procedure Call)來實現的。在設計上,名稱節點不會主動發起RPC,而是響應來自客戶端和數據節點的RPC請求.4 客戶端客戶端 客戶端是用戶操作HDFS最常用的方式,HDFS在部署時都提供了客戶端 HDFS客戶端是一個庫,暴露了HDFS文件系統接口,這些接口隱藏了HDFS實現中的大部分復雜性 嚴格來說,客戶端并不算是HDFS的一部分 客戶端可以支持打開、讀取、寫入等常見的操作,并且提供了類似Shell的命令行方式來訪問HDFS中的數據 此外,HDFS也提供了Java API,作為應用程序訪問文件系統的客戶端編程接口3.4.53

15、.4.5 HDFSHDFS體系結構的局限性體系結構的局限性HDFS只設置唯一一個名稱節點,這樣做雖然大大簡化了系統設計,但也帶來了一些明顯的局限性,具體如下: (1)命名空間的限制命名空間的限制:名稱節點是保存在內存中的,因此,名稱節點能夠容納的對象(文件、塊)的個數會受到內存空間大小的限制。 (2)性能的瓶頸性能的瓶頸:整個分布式文件系統的吞吐量,受限于單個名稱節點的吞吐量。 (3)隔離問題隔離問題:由于集群中只有一個名稱節點,只有一個命名空間,因此,無法對不同應用程序進行隔離。 (4)集群的可用性集群的可用性:一旦這個唯一的名稱節點發生故障,會導致整個集群變得不可用。3.5HDFS存儲原理

16、n3.5.1冗余數據保存n3.5.2數據存取策略n3.5.3數據錯誤與恢復.1 冗余數據保存冗余數據保存 作為一個分布式文件系統,為了保證系統的容錯性和可用性,HDFS采用了多副本方式對數據進行冗余存儲,通常一個數據塊的多個副本會被分布到不同的數據節點上,如圖3-5所示,數據塊1被分別存放到數據節點A和C上,數據塊2被存放在數據節點A和B上。這種多副本方式具有以下幾個優點:(1)加快數據傳輸速度加快數據傳輸速度(2)容易檢查數據錯誤容易檢查數據錯誤(3)保證數據可靠性保證數據可靠性圖3-5 HDFS數據塊多副本存儲 .2 數據存取策略數據存取策略1.數據存放數據

17、存放Block的副本放置策略第一個副本:放置在上傳文件的數據節點;如果是集群外提交,則隨機挑選一臺磁盤不太滿、CPU不太忙的節點第二個副本:放置在與第一個副本不同的機架的節點上第三個副本:與第一個副本相同機架的其他節點上更多副本:隨機節點.2 數據存取策略數據存取策略2. 數據讀取數據讀取HDFS提供了一個API可以確定一個數據節點所屬的機架ID,客戶端也可以調用API獲取自己所屬的機架ID當客戶端讀取數據時,從名稱節點獲得數據塊不同副本的存放位置列表,列表中包含了副本所在的數據節點,可以調用API來確定客戶端和這些數據節點所屬的機架ID,當發現某個數據塊副本對應的機架ID和客

18、戶端對應的機架ID相同時,就優先選擇該副本讀取數據,如果沒有發現,就隨機選擇一個副本讀取數據.3 數據錯誤與恢復數據錯誤與恢復 HDFS具有較高的容錯性,可以兼容廉價的硬件,它把硬件出錯看作一種常態,而不是異常,并設計了相應的機制檢測數據錯誤和進行自動恢復,主要包括以下幾種情形:名稱節點出錯、數據節點出錯和數據出錯。.3 數據錯誤與恢復數據錯誤與恢復1. 名稱節點出錯名稱節點出錯 名稱節點保存了所有的元數據信息,其中,最核心的兩大數據結構是FsImage和Editlog,如果這兩個文件發生損壞,那么整個HDFS實例將失效。因此,HDFS設置了備份機制,把這些核心

19、文件同步復制到備份服務器SecondaryNameNode上。當名稱節點出錯時,就可以根據備份服務器SecondaryNameNode中的FsImage和Editlog數據進行恢復。.3 數據錯誤與恢復數據錯誤與恢復2. 數據節點出錯數據節點出錯每個數據節點會定期向名稱節點發送“心跳”信息,向名稱節點報告自己的狀態當數據節點發生故障,或者網絡發生斷網時,名稱節點就無法收到來自一些數據節點的心跳信息,這時,這些數據節點就會被標記為“宕機”,節點上面的所有數據都會被標記為“不可讀”,名稱節點不會再給它們發送任何I/O請求這時,有可能出現一種情形,即由于一些數據節點的不可用,會導致一

20、些數據塊的副本數量小于冗余因子名稱節點會定期檢查這種情況,一旦發現某個數據塊的副本數量小于冗余因子,就會啟動數據冗余復制,為它生成新的副本HDFS和其它分布式文件系統的最大區別就是可以調整冗余數據的位置.3 數據錯誤與恢復數據錯誤與恢復3. 數據出錯數據出錯網絡傳輸和磁盤錯誤等因素,都會造成數據錯誤客戶端在讀取到數據后,會采用md5和sha1對數據塊進行校驗,以確定讀取到正確的數據在文件被創建時,客戶端就會對每一個文件塊進行信息摘錄,并把這些信息寫入到同一個路徑的隱藏文件里面當客戶端讀取文件的時候,會先讀取該信息文件,然后,利用該信息文件對每個讀取的數據塊進行校驗,如果校驗出錯

21、,客戶端就會請求到另外一個數據節點讀取該文件塊,并且向名稱節點報告這個文件塊有錯誤,名稱節點會定期檢查并且重新復制這個塊3.6HDFS數據讀寫過程n3.6.1讀數據的過程n3.6.2寫數據的過程3.6HDFS數據讀寫過程importjava.io.BufferedReader;importjava.io.InputStreamReader;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.Path;importorg.apache

22、.hadoop.fs.FSDataInputStream;publicclassChapter3publicstaticvoidmain(Stringargs)tryConfigurationconf=newConfiguration();FileSystemfs=FileSystem.get(conf);Pathfilename=newPath(“hdfs:/localhost:9000/user/hadoop/test.txt);FSDataInputStreamis=fs.open(filename);BufferedReaderd=newBufferedReader(newInputS

23、treamReader(is);Stringcontent=d.readLine();/讀取文件一行 System.out.println(content);d.close();/關閉文件 fs.close();/關閉hdfs catch(Exceptione)e.printStackTrace();讀取文件讀取文件3.6HDFS數據讀寫過程importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.FSDataOutputStream;i

24、mportorg.apache.hadoop.fs.Path;publicclassChapter3publicstaticvoidmain(Stringargs)tryConfigurationconf=newConfiguration();FileSystemfs=FileSystem.get(conf);bytebuff=Helloworld.getBytes();/ 要寫入的內容 Stringfilename=hdfs:/localhost:9000/user/hadoop/test.txt;/要寫入的文件名 FSDataOutputStreamos=fs.create(newPath

25、(filename);os.write(buff,0,buff.length);System.out.println(Create:+filename);catch(Exceptione)e.printStackTrace();寫入文件寫入文件3.6HDFS數據讀寫過程FileSystem是一個通用文件系統的抽象基類,可以被分布式文件系統繼承,所有可能使用Hadoop文件系統的代碼,都要使用這個類Hadoop為FileSystem這個抽象類提供了多種具體實現DistributedFileSystem就是FileSystem在HDFS文件系統中的具體實現FileSystem的open()方法返回

26、的是一個輸入流FSDataInputStream對象,在HDFS文件系統中,具體的輸入流就是DFSInputStream;FileSystem中的create()方法返回的是一個輸出流FSDataOutputStream對象,在HDFS文件系統中,具體的輸出流就是DFSOutputStream。3.6HDFS數據讀寫過程Configuration conf = new Configuration();FileSystem fs = FileSystem.get(conf);FSDataInputStream in = fs.open(new Path(uri);FSDataOutputStre

27、am out = fs.create(new Path(uri);備注:創建一個Configuration對象時,其構造方法會默認加載工程項目下兩個配置文件,分別是hdfs-site.xml以及core-site.xml,這兩個文件中會有訪問HDFS所需的參數值,主要是fs.defaultFS,指定了HDFS的地址(比如hdfs:/localhost:9000),有了這個地址客戶端就可以通過這個地址訪問HDFS了 .1 讀數據的過程讀數據的過程FSDataInputStream封裝了DFSInputStreamFileSystem fs = FileSystem.get(con

28、f);FSDataInputStream in = fs.open(new Path(uri);Configuration conf = new Configuration();import org.apache.hadoop.fs.FileSystem通過ClientProtocal.getBlockLocations()遠程調用名稱節點,獲得文件開始部分數據塊的位置對于該數據塊,名稱節點返回保存該數據塊的所有數據節點的地址并根據距離客戶端遠近進行排序客戶端獲得輸入流FSDataInputStream以后調用read()函數開始讀取數據輸入流根據前面的排序結果選擇距離客戶端最近的數據節點建立

29、連接并讀取數據數據從數據節點讀到客戶端,當該數據塊讀取完畢時 FSDataInputStream關閉和該數據節點的連接通過ClientProtocal.getBlockLocations()查找下一個數據塊.2 寫數據的過程寫數據的過程FileSystem fs = FileSystem.get(conf);FSDataOutputStream out = fs.create(new Path(uri);Configuration conf = new Configuration();import org.apache.hadoop.fs.FileSystemRPC遠程調用名稱

30、節點在文件系統的命名空間中新建一個文件名稱節點會執行一些檢查(文件是否存在,客戶端權限)FSDataOutputStream封裝了DFSOutputStream數據被分成一個個分包分包被放入DFSOutputStream對象的內部隊列DFSOutputStream向名稱節點申請保存數據塊的若干數據節點這些數據節點形成一個數據流管道隊列中的分包最后被打包成數據包發往數據流管道中的第一個數據節點第一個數據節點將數據包發送到第二個節點依此類推,形成“流水線復制”為了保證節點數據準確,接收到數據的數據節點要向發送者發送“確認包”確認包沿著數據流管道逆流而上,經過各個節點最終到達客戶端客戶端收到應答時,

31、它將對應的分包從內部隊列移除DFSOutputStream調用ClientPplete()方法通知名稱節點關閉文件3.7 HDFS編程實踐Hadoop提供了關于HDFS在Linux操作系統上進行文件操作的常用Shell命令以及Java API。同時還可以利用Web界面查看和管理Hadoop文件系統備注:Hadoop安裝成功后,已經包含HDFS和MapReduce,不需要額外安裝。而HBase等其他組件,則需要另外下載安裝。3.7 HDFS編程實踐在學習HDFS編程實踐前,我們需要啟動Hadoop。執行如下命令:3.7.1 HDFS常用命令HDFS有很多shell命令,其中,fs命令可以說是HD

32、FS最常用的命令利用該命令可以查看HDFS文件系統的目錄結構、上傳和下載數據、創建文件等。該命令的用法為:hadoopfsgenericOptionscommandOptions3.7.1 HDFS常用命令Hadoop中有三種Shell命令方式:hadoop fs適用于任何不同的文件系統,比如本地文件系統和HDFS文件系統hadoop dfs只能適用于HDFS文件系統hdfs dfs跟hadoop dfs的命令作用一樣,也只能適用于HDFS文件系統3.7.1 HDFS常用命令實例:hadoop fs -ls :顯示指定的文件的詳細信息hadoop fs -mkdir :創建指定的文件夾3.7.

33、1 HDFS常用命令實例:hadoop fs -cat :將指定的文件的內容輸出到標準輸出(stdout)hadoop fs -copyFromLocal :將本地源文件復制到路徑指定的文件或文件夾中3.7.2 HDFS的Web界面在配置好Hadoop集群之后,可以通過瀏覽器登錄“http:/NameNodeIP:50070”訪問HDFS文件系統通過Web界面的“Browsethefilesystem”查看文件“hdfs:/localhost/home/administrator/tempfile/file1.txt”3.7.3HDFS常用Java API及應用實例利用利用Java API與與

34、HDFS進行交互進行交互實例:利用hadoop 的java api檢測偽分布式文件系統HDFS上是否存在某個文件?準備工作:在Ubuntu系統中安裝和配置Eclipse第一步:放置配置文件到當前工程下面( eclipse工作目錄的bin文件夾下面)第二步:編寫實現代碼3.7.3HDFS常用Java API及應用實例利用Java API進行交互,可以使用軟件Eclipse編寫Java程序。(1)在)在Ubuntu中安裝中安裝Eclipse利用Ubuntu左側邊欄自帶的軟件中心安裝軟件,在Ubuntu左側邊欄打開軟件中心3.7.3HDFS常用Java API及應用實例打開軟件中心后,呈現如下界面3

35、.7.3HDFS常用Java API及應用實例在軟件中心搜索欄輸入“ec”,軟件中心會自動搜索相關的軟件3.7.3HDFS常用Java API及應用實例點擊如下圖中Eclipse,進行安裝3.7.3HDFS常用Java API及應用實例安裝需要管理員權限,Ubuntu系統需要用戶認證,彈出“認證”窗口,請輸入當前用戶的登錄密碼3.7.3HDFS常用Java API及應用實例ubuntu便會進入如下圖的安裝過程中,安裝結束后安裝進度條便會消失。3.7.3HDFS常用Java API及應用實例點擊Ubuntu左側邊欄的搜索工具,輸入“ec”,自動搜索已經安裝好的相關軟件,打開Eclipse3.7.

36、3HDFS常用Java API及應用實例(2)在)在Eclipse創建項目創建項目第一次打開Eclipse,需要填寫workspace(工作空間),用來保存程序所在的位置,這里按照默認,不需要改動,如下圖3.7.3HDFS常用Java API及應用實例點擊“OK”按鈕,進入Eclipse軟件。開始創建項目,選擇頂部菜單FileNewJava Project,如下圖3.7.3HDFS常用Java API及應用實例輸入項目名稱,本教程輸入的項目名稱是“Dblab”,其他不用改動,點擊“Finish”按鈕即可。3.7.3HDFS常用Java API及應用實例為項目加載所需要用到的jar包如何獲取如何獲取jar包包Java API所在的jar包都在已經安裝好的hadoop文件夾里,路徑:/usr/local/hadoop/share/hadoop(如果讀者安裝的hadoop不在此目錄,請找到jar包所在的文件夾)3.7.3HDFS常用Java API及應用實例在所在項目中加載jar包,具體操作如下:在所選的Eclipse項目(Dblab)上右鍵點擊彈出菜單中選擇PropertiesJava Build PathLibrariesAdd External JARS3.7.3HDFS常用Java A

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論