高光譜圖像分類_第1頁
高光譜圖像分類_第2頁
高光譜圖像分類_第3頁
高光譜圖像分類_第4頁
高光譜圖像分類_第5頁
免費預覽已結束,剩余14頁可下載查看

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、機器學習課程項目報告高光譜圖像分類基于CNN和ELM學院信息工程學院專業(yè)電子與通信工程學號2111603035學生姓名曹發(fā)賢同組學生陳惠明、陳濤碩士導師楊志景2016年11月一、項目意義與價值高光譜遙感技術起源于20世紀80年代初,是在多光譜遙感技術基礎之上發(fā)展起來的1。高光譜遙感能夠通過成像光譜儀在可見光、近紅外、短波紅外、中紅外等電磁波譜范圍獲取近似連續(xù)的光譜曲線,將表征地物幾何位置關系的空間信息與表征地物屬性特征的光譜信息有機地融合在了一起,使得提取地物的細節(jié)信息成為可能。隨著新型成像光譜儀的光譜分辨率的提高,人們對相關地物的光譜屬性特征的了解也不斷深入,許多隱藏在狹窄光譜范圍內的地物特

2、性逐漸被人們所發(fā)現(xiàn),這些藥素大大加速了遙感技術的發(fā)展,使高光譜遙感成為21世紀遙感技術領域重要的研究方向之一。在將高光譜數(shù)據(jù)應用于各領域之前,必須進行必要的數(shù)據(jù)處理。常用的數(shù)據(jù)處理技術方法包括:數(shù)據(jù)降維、目標檢測、變化檢測等。其中,分類是遙感數(shù)據(jù)處理中比較重要的環(huán)節(jié),分類結果不但直接提取了影像數(shù)據(jù)有效信息,可以直接運用于實際需求中,同時也是實現(xiàn)各種應用的前提,為后續(xù)應用提供有用的數(shù)據(jù)信息和技術支持,如為目標檢測提供先驗信息、為解混合提供端元信息等。相對于多光譜遙感而言,由于高光譜遙感的波譜覆蓋范圍較寬,因此我們可以根據(jù)需要選擇特定的波段來突顯地物特征,從而能夠精確地處理地物的光譜信2。目前,許

3、多國家開展大量的科研項目對高光譜遙感進行研究,研制出許多不同類型的成像光譜儀。高光譜遙感正逐步從地面遙感發(fā)展到航空遙感和航天遙感,并在地圖繪制、資源勘探、農作物監(jiān)測、精細農業(yè)、海洋環(huán)境監(jiān)測等領域發(fā)揮重要的作用。高光譜遙感技術雖然是遙感領域的新技術,但是高光譜圖像的分類一直制約著高光譜遙感的應用3,4,因此對其進行研究顯得尤為重要。高光譜遙感圖像較高的光譜分辨率給傳統(tǒng)的圖像分類識別算法提出嚴峻的挑戰(zhàn)。波段維數(shù)的增加不僅加重了數(shù)據(jù)的存儲與傳輸?shù)呢摀瑫r也加劇了數(shù)據(jù)處理過程的復雜性,并且由于波段與波段間存在著大量的冗余信息,從而使得傳統(tǒng)圖像分類算法并不適用于高光譜遙感圖像的分類。傳統(tǒng)的分類方法往往

4、需要很多數(shù)目的已知類別的訓練樣本,從而導致計算量大,時間復雜度高。另外,如果訓練樣本的數(shù)目較少,采用傳統(tǒng)分類算法進行分類時分類精度往往是很低的,【大I此提高分類精度并減少運算量成為高光譜領域的熱點問題。高光譜遙感圖像的波段數(shù)目多,并且波段與波段間存在著很大的相關性,因此在進行遙感圖像的處理(例如分類)之前通常需要進行降維預處理,這樣做不僅可以降低數(shù)據(jù)空間的維數(shù),減少冗余信息,而且還有利于人工圖像解譯和后續(xù)分類處理和地物識別,從而為解決高光譜遙感分類的難點提供了方便5。二、高光譜圖像分類的發(fā)展與現(xiàn)狀高光譜圖像分類作為高光譜圖像的基礎研究,一直是高光譜圖像重要的信息獲取手段,它的主要目標是根據(jù)待測

5、地物的空間幾何信息與光譜信息將圖像中的每個像素劃分為不同的類別。高光譜圖像分類按照是否有已知類別的訓練樣本的參與,高光譜圖像的分類方式分為監(jiān)督分類與非監(jiān)督分類6。在遙感圖像自動分類中,傳統(tǒng)的基于數(shù)理統(tǒng)計的分類方法,主要包括最小距離分類、最大似然分類、波譜角分類、混合距離法分類等,主要依賴地物的光譜屬性,基于單個像元進行分類。統(tǒng)計模式識別方法本身的不足:1、最大似然法計算強度大,且要求數(shù)據(jù)服從正態(tài)分布2、Kmeans聚類分類精度低,分類精度依賴于初始聚類中心3、最小距離法沒有考慮各類別的協(xié)方差矩陣,對訓練樣本數(shù)目要求低近年來對于神經網(wǎng)絡分類方法的研究相當活躍。它區(qū)別于傳統(tǒng)的分類方法:在處理模式分

6、類問題時,并不基于某個假定的暇率分布,在無監(jiān)督分類中,從特征空間到模式空間的映射是通過網(wǎng)絡自組織完成的。在監(jiān)督分類中,網(wǎng)絡通過對訓練樣本的學習,獲得權值,形成分類器,且具備容錯性。人工神經網(wǎng)絡(ANN)分類方法一般可以獲得更高精度的分類結果,因此ANN方法在遙感分類中被廣泛應用,特別是對于復雜類型的地物類型分類,ANN方法顯示了其優(yōu)越性。專家系統(tǒng)分類法也在遙感分類取得了一定的應用。專家系統(tǒng)是模擬人類邏輯思維的智能系統(tǒng),將其應用于遙感分類最大的優(yōu)點就是可以充分利用更多的輔助分類數(shù)據(jù)。不過由于專家系統(tǒng)知識庫難以建立,影響了它的進一步發(fā)展。支持向量機(SVM)具有嚴格的理論基礎,能較好地解決小樣本、

7、非線性、高維數(shù)等問題,被成功地應用到多光譜、高光譜遙感圖像分類領域。對于高光譜數(shù)據(jù)而言,由于波段多、數(shù)據(jù)量大、數(shù)據(jù)不確定性等,易受Hughes現(xiàn)象(即訓練樣本固定時,分類精度隨特征維數(shù)的增加而下降)影響。而樣本的獲取在高光譜分類中往往是一項比較困難的工作,特別是采用高維特征向量時要求每類的樣本數(shù)都要比特征維數(shù)高,因此在高維信息處理中的精度與效率和高光譜遙感信息精細光譜與大數(shù)據(jù)量之間仍然存在著極大的矛盾。三、卷積神經網(wǎng)絡理論基礎卷積神經網(wǎng)絡是人工神經網(wǎng)絡的一種,它的權值共享網(wǎng)絡結構使之更類似于生物神經網(wǎng)絡,降低了網(wǎng)絡模型的復雜度,減少的權值的數(shù)髭以節(jié)約訓練和測試的計算時間。該優(yōu)點在網(wǎng)絡的輸入是多

8、維圖像時表現(xiàn)得更加明顯,使圖像可以直接作為網(wǎng)絡的輸入,避免了傳統(tǒng)識別算法中復雜的特征提取和數(shù)據(jù)重建過程。卷積神經網(wǎng)絡是為識別二維數(shù)據(jù)而專門設計的一個多層感知機,其網(wǎng)絡對平移、比例變化和傾斜等具有高度不變性7。在CNN中,圖像的一小部分(局部感受區(qū)域)作為層級結構的最低層的輸入,信息再依次傳輸?shù)讲煌膶樱繉油ㄟ^一個數(shù)字濾波器去獲得觀測數(shù)據(jù)的最顯著的特征。這個方法能夠獲取對平移、縮放和旋轉不變的觀測數(shù)據(jù)的顯著特征,因為圖像的局部感受區(qū)域允許神經元或者處理單元可以訪問到最基礎的特征,例如定向邊緣或者角點。卷積神經網(wǎng)絡是一個多層的神經網(wǎng)絡,每層由多個二維平面組成,每個平面乂由多個獨立的神經元組成。圖

9、2為卷積神經網(wǎng)絡的整體結構圖。一般地,C層(卷積層)為特征提取層,每個神經元的輸入與前一層的局部感受野相連,并提取該局部的特征,一旦該局部特征被提取后,它與其他特征間的位置關系也隨之確定下來:S層(下采樣層)是特征映射層,網(wǎng)絡的每個計算層由多個特征映射組成,每個特征映射為一個平面,平面上所有神經元的權值相等。特征映射結構采用sigmoid函數(shù)等映射函數(shù)作為卷積網(wǎng)絡的激活函數(shù),使得特征映射具有位移不變性。此外,由于一個映射面上的神經元共享權值,因而減少了網(wǎng)絡自由參數(shù)的個數(shù),降低了網(wǎng)絡參數(shù)選擇的復雜度。卷積神經網(wǎng)絡中的每一個特征提取層(C-層)都緊跟著一個用來求局部平均與二次提取的計算層(S-層)

10、,這種特有的兩次特征提取結構使網(wǎng)絡在識別時對輸入樣本有較高的畸變容忍能力。卷積神經網(wǎng)絡采用有監(jiān)督學習的方式進行訓練,即任何一個訓練樣本的類別是己知的,訓練樣本在空間中的分布不再是依據(jù)其自然分布傾向來劃分,而是根據(jù)同類樣本和不同類樣本中的空間關系進行劃分,這需要不斷調整網(wǎng)絡模型的參數(shù)用以劃分樣本空間的分類邊界的位置,是一個耗時且復雜的學習訓練過程8。神經網(wǎng)絡在進行訓練時,所有的網(wǎng)絡權值都用一些不同的小隨機數(shù)進行初始化,這些小的隨機數(shù)能偶保證網(wǎng)絡不會因為權值過大而進入飽和狀態(tài),導致訓練失敗。神經網(wǎng)絡訓練算法包括4個主要部分:(1)樣本集中取出樣本(X,yp)并將其輸入網(wǎng)絡,X代表圖像數(shù)組,yp代表

11、其類別:(2)計算此次輸入相應的實際輸出Op,這是一個前向傳播的過程;(3)用一個指定的損失函數(shù)計算出實際輸出Op與理想輸出與的誤差;(4)按極小化誤差的方法反向傳播調整網(wǎng)絡權值。四、極限學習機極限學習機(extremelearningmachine)ELM是一種簡單易用、有效的單隱層前饋神經網(wǎng)絡SLFNs學習算法。2004年由南洋理工大學黃廣斌副教授提出。傳統(tǒng)的神經網(wǎng)絡學習算法(如BP算法)需要人為設置大量的網(wǎng)絡訓練參數(shù),并且很容易產生局部最優(yōu)解。極限學習機只需要設置網(wǎng)絡的隱層節(jié)點個數(shù),在算法執(zhí)行過程中不需要調整網(wǎng)絡的輸入權值以及隱元的偏置.,并且產生唯一的最優(yōu)解,因此具有學習速度快且泛化性

12、能好的優(yōu)點。極限學習機的網(wǎng)絡訓練模型采用前向單隱層結構。設*M,n分別為網(wǎng)絡輸入層、隱含層和輸出層的節(jié)點數(shù),g(x)是隱層神經元的激活函數(shù),I為閾值。設有N個不同樣本(%由),l<i<N,其中%=國/2,%j7Rm&=htxi'則極限學習機的網(wǎng)絡訓練模型如圖1所示。工“工連*,工m圖1極限學習機的網(wǎng)絡訓練模型極限學習機的網(wǎng)絡模型可用數(shù)學表達式表示如下:ZAs(4,+bj=Oj,j=1,2,.,Ni=l式中,Q=®,%,表示連接網(wǎng)絡輸入層節(jié)點與第i個隱層節(jié)點的輸入權值向量;以=442,.,以表示連接第i個隱層節(jié)點與網(wǎng)絡輸出層節(jié)點的輸出權值向量:0、=Mi,q

13、:i,.,o1n表示網(wǎng)絡輸出值。極限學習機的代價函數(shù)E可表示為E(SM=£k-tJj=】式中,s=(Q,b1,i=L2,.,M),包含了網(wǎng)絡輸入權值及隱層節(jié)點閾值。Huang等指出極限學習機的懸鏈目標就是尋求最優(yōu)的S,夕使得網(wǎng)絡輸出值與對應實際值誤差最小,即n】in(E(S,0)。min(E(S,0)可進一步寫為min(E(S,/7)=哂但(如,%山,聞,均,網(wǎng))2-T|式中,H表示網(wǎng)絡關于樣本的隱層輸出矩陣,。表示輸出權值矩陣,T表示樣本集的目標值矩陣,H,0,T分別定義如下:(可片+。)g(/小+3)-h(叫>»兒»%).»)二g(q0+d),

14、M極限學習機的網(wǎng)絡訓練過程可歸結為一個非線性優(yōu)化問題。當網(wǎng)絡隱層節(jié)點的激活函數(shù)無限可微時,網(wǎng)絡的輸入權值和隱層節(jié)點閾值可隨機賦值,此時矩陣H為一常數(shù)矩陣,極限學習機的學習過程可等價為求取線性系統(tǒng)H"=T最小范數(shù)的最小二乘解力,其計算式為=H4T式中H卡時矩陣H的MP廣義逆。五、具體實現(xiàn)及主要代碼1、訓練的樣本及其樣本圖ROSEPavBUniversityNoNameTranTest6631inAnhalt5482Meadowsr540186493Gravelr392L2099|41Treesr52430645Metaisheetsr265L13456BaresoilL532L5029

15、7Biumen37513308BrrksL51436829ShadowsI231L947Total392142776ROSEPaviaCenterNo1NameTrailTest1Water824659712Trees82075983Meadow824130904Bricks80826855JSoilJ820JL65846A中halt8169284LBitumen80872878life1260428269Shadows4762863Total7456148152SalnasNoNameTranTest1BrocolLgi«en_weed_l30120092-JBrocoILfirc

16、en_weed_255937263JFalbw2961976r41Falbwjrough_pbwI20913945Falbw_smooth40226786Stubbh59439597Cefery53735798JGrapes_untrahedri69i112719JSoIvhyaid_devebp930620310Com_senscedjgreenjweedsr492327811Lettuceromahe_4wk160106812Lettuce_romahe_5wk289192713Lettuceromahe_6wk13791614Lettuce_romane_7wk161107015Vhya

17、rdjuntrahedrio9o726816Vnyard_verti?aItreIlis2711807Total811954129fileE&MewIrsenToolsDedacpWindewfileEdtFTod?C«tepVYirdoa附JdwkwC-DkX-3圖10京乖期西日400200»040)500600700fileEchViewIrser-ocfcDesktopV<indowHep3D口204060B01001201401601802002、原圖及進行分類后的圖和各個高光譜數(shù)據(jù)集每一類的分類精度TheresultofPaviaUniversity

18、He試施hertToclsD則他如附fileEditViewInset*oosDeskx)pWWcmHelp品(dir、ZWiTT0IBIrainingTime=1.9344IramingAccuracy=0.9707品aKM娛小。目口lestinline=1.65361stm肚:curacy=0.9324crnhliOverallAccuncyis0.932392EeliAverageArcmarris0.S3S345creliCAAazjyracyis0.S9262ScmhliCAAoziyracyis0.942945criihliCAAcizjyracjris0.S6i697CLnhli

19、CAArayracjris0.980418cmhliCAAorjyracyis0.;8?361cnhliCAArayracyis0.92I52I)cmhliCAAorjyracyisQ:5;:35unhliCAArayracyis0.910918unklxCAAcizrrscyis0.5SI388antdilappais0.911218TheresultofPaviaCenterTestintTiae=5.5692IestingAccuracy=0.9892Iraininglime=3.3384IraimngAccuracy=0.9862crm+elaOverallAccuracyis0.98

20、922:cnn+elaAveraceAccuracyis0.976868con+elaCAAcuuyracyis0.999803cnn+el*CAAcuuyracyis0.958147cnn*el*CAAcuuyracyis0.970550cnn+elaCAAcuuyracyis0.978399crm+elaCAAcuuyracyis0.965067cnn+el>CAAcuuyracyis0.982483cnn+elBCAAcuuyracyis0.946068cnn+elaCAAcuuyracyis0.992341crarelMCAAcuuyracyis0.998952cnn*elaka

21、ppais0.984768TheresultofSalinasHeEditViewInsert*oobDesktopMdowHdp0210HeEatVew/雙oolsDesktooftrdcwHdpi五口204060BOin12014016018020020108)00IM1»M0M0IM200Testingliiie=5.5316lestingAccuracy0.9490cmelxOverallAccuracyisC.949029crxi4-el>AverageAccuracyis0.973815urnmCAAcuurracy0.999502CAAcuu7racy1£

22、;0.998121Cm,FelBCAAcuu/racyisO.0B89B8kainmelir.?=cnntelaCAAcuu/tacyis0.997131cm4-el>CAAcuurracyis0.995892crn4-cl>CAAcuurracy150.95211225.1282em+whCAAcuuzraoy0.996927crn-t-elMCAAcuuzracyis0.904001cnn-hl>CAAcuuracyis0.996292cnntel»CAAcuuyracyis0.966138IraimniAcniracy=cmelxCAAcuusrracy130

23、.993446cm4-clxCAAcuuzracyL£1.000000cmYi.CAAcuuzracyL£0.9934500.S681um+wlACAAcuuzracyL£0.973832cnn-bel>CAAcuu/tacyis0.823473cm+el-CAAcuuyracy150.981738cm4-cl>kappais0.9431993、主要代碼ThemaincodeofPaviaUniversityofMatlab%ConvolutionNeuralNetwork.AndExtremLearningMachine%Test1forPaviaU

24、niversity%STEP1:InitializecnnConfig=config();thetarmeta=cnnlnitParams(cnnConfig);n_class=cnnConfig.layermeta.numLayers.dimension;loadPaviaU;loadPaviaU_gt;images/labels,indexs,samimage=loadtrain(paviaUrpaviaU_gt);d=cnnConfig.layer1).dimension;images=reshape(images,d(1),d(2),d(3)z);%STEP2:Train(TheCnn

25、AndElm)options.epochs=1;options.minibatch=30;options.alpha=0.05;newtheta=minFuncSGD(x,y,z)cnnCost(x,y,z,cnnConfig,meta),theta,imagesrlabelsoptions);K=cnnExtract(newtheta,imagescnnConfigrmeta);TrainingTimetTrainingAccuracyrInputweightrBiasofEiddenNeurons,OutputWeight#NumberofOutputNeurons=elmtrain(K,

26、labelsT,1,900);%STEP3:TesttestImages/testLabels,testlndexs=loadtest(paviaUrpaviaU_gt);testlmages=reshape(test工mages,d(1),d(2),d,);rowfcol=size(paviaU_gt);testK=cnnExtract(newthetartestimages,cnnConfigrmeta);TestingTimerTestingAccuracy,testoutputlabelsactuaioutputs=elmpredict(testKftestLabelstestlnde

27、xs1,InputweightzBiasofHiddenNeuronsfOutputweight;NumberofOutputNeurons,now,col);predimagel=zeros(row,col);predimagel(testlndexs)=testoutputlabel;figureimagesc(predimagel);axisoff;OAZkappa,AA,CA=calcError(testLabels,predimagel(testlndexs),1:n_class);fprintf(1cnn+elmOverallAccuracyis%fnftOA);fprintf(f

28、cnn+elmAverageAccuracyis%fnf,AA);fprintf(fcnn+elmCAAcuuyracyis%fnf,CA);fprintf(1cnn+elmkappais%fnf9kappa);figure,imagesc(paviaU_gt);axisoff;ThemaincodeofPaviaCenterofMatlab%ConvolutionNeuralNetworkAndExtremLearningMachine%Test2forPaviacentercnnConfig=config3();theta,meta=cnnlnitParams(cnnConfig);n_c

29、lass=cnnConfig.layermeta.numLayers.dimension;loadPavia;loadPavia_gt;images/labelsindexs=loadtrain3(paviarpavia_gt);d=cnnConfig.layer1.dimension;images=reshape(images,d(1),d(2),d(3)z);%STEP2:Train(TheCnnAndElm)options.epochs=1;options.minibatch=25;options.alpha=0.05;newtheta=minFuncSGD(xry,z)cnnCost(

30、x,y,z,cnnConfigzmeta),theta,imagesrlabelsoptions);K=cnnExtract(newtheta,images/cnnConfigrmeta);TrainingTime,TrainingAccuracyrInputweightrEiasofHiddenNeurons,OutputWeightzNumberofOutputNeurons=elmtrain(K,labelsT,1,850);%STEP3:Testtest工mages,testLabels,testlndexs=ioadtest3(paviazpavia_gt);testimages=r

31、eshape(testimages,d(1)rd(2),d(3)9);row,col=size(pavia_gt);testK=cnnExtract(newthetartestimages,cnnConfig,meta);TestingTimerTestingAccuracy,testoutputlabel=elmpredict(testK,testLabels',1,InputweightrBiasofHiddenNeuronszOutputWeightrNumberofOutputNeuronsrrow,col);predimagel=zeros(row,coi);predimag

32、el(testlndexs)=testoutputlabel;figure/imagesc(predimagel);axisoffOAZkappa,AA,CA=calcError(testLabels,predimagel(testlndexs),1:n_class);fprintf(fcnn+elmOverallAccuracyis%fnffOA);fprintf(fcnn+elmAverageAccuracyis%fnf9AA);fprintf(1cnn+elmCAAcuuyracyis%fnf,CA);fprintf(1cnn+elmkappais%fnffkappa);figureim

33、agesc(pavia_gt);axisoffThemaincodeofSalinasofMatlab%ConvolutionNeuralNetworkAndExtremLearningMachine%Test1forSalinas%STEP1:InitializecnnConfig=config();theta,meta=cnnlnitParams(cnnConfig);n_class=cnnConfig.layermeta.numLayers.dimension;loadSalinas_corrected;loadSalinas_gt;images,labels,indexs,samima

34、ge=loadtrain(saiinas_corrected,sallnas_gt);d=cnnConfig.layer1.dimension;images=reshape(images,d(1),d(2),d(3),);%STEP2:Train(TheCnnAndElm)options.epochs=1;options.minibatch=30;options.alpha=0.05;newtheta=minFuncSGD(xfyfz)cnnCost(x,v,nConfig,meta),theta,imagesrlabels,options);K=cnnExtract(newtheta,ima

35、ges,cnnConfig,meta);TrainingTimerTrainingAccuracyrInputweightrBiasofHiddenNeurons,OutputWeightrNumberofOutputNeurons=eimtrain(K,labelsf,lr2300);%STEP3:Testtest工mages,testLabels,testlndexs=loadtest(salinasorrected/salinas_gt);testlmages=reshape(test工mages,d(1),d(2),d(3),);rowfcol=size(saiinas_gt);tes

36、tK=cnnExtract(newthetatestimages,cnnConfig,meta);TestingTimerTestingAccuracy,testoutputlabelsacrtualoutputs=eimpredict(testK,testLabels',testlndexsr1,Inputweight,BiasofHiddenNeutons,OutputweightrNumberofOutputNeuronS/now,col);predimagel=zeros(row,col);predimagel(testlndexs)=testoutputlabel;figure,imagesc(predimagel);axisoff;1:n_class);fprlntf('cnn+elmfprintf('cnn+elmfprintf('cnn+elmfprintf('cnn+elmOAZkappa,AA,CA=calcError(testLabels,predimagel(testlndexs),OverallAccuracyis%fnf,OA)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論