基于卷積神經網絡的充電樁故障診斷準確性研究11000字【論文】_第1頁
基于卷積神經網絡的充電樁故障診斷準確性研究11000字【論文】_第2頁
基于卷積神經網絡的充電樁故障診斷準確性研究11000字【論文】_第3頁
基于卷積神經網絡的充電樁故障診斷準確性研究11000字【論文】_第4頁
基于卷積神經網絡的充電樁故障診斷準確性研究11000字【論文】_第5頁
已閱讀5頁,還剩41頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

基于卷積神經網絡的充電樁故障診斷準確性研究本文主要研究深度學習算法,利用Python編程語言在Windows系統下的PyCharm平臺PyTorch框架,提出并實現了卷積神經網絡算法對充電樁故障進行經實驗表明,建立卷積神經網絡模型,通過訓練超過5萬條充電樁數據,在對充電樁故障進行診斷測試后,準確率可達到88%,可對充電樁是否故障做出分關鍵詞:深度學習,充電樁故障,卷積神經網絡,PyTorch,電動汽車 2 2 22.2.1卷積運算 2.2.2卷積神經網絡的結構 4 42.3.1數據預處理的必要性 42.3.2數據預處理常用方法 52.4幾種評估指標 52.4.1混淆矩陣 5 62.4.3精確度 62.4.4召回率 6 62.5本章小結 7 83.1需求分析 83.2整體設計結構 8 3.5本章小結 4.1數據預處理 4.2卷積神經網絡構建 4.3訓練過程 4.4本章小結 5.4本章小結 21 1第一章緒論以選擇到能正常使用的充電樁,工作人員可以及時對出現故障的充電樁進行維的快速建設和應用。國務院辦公廳早在2015年就發布了有關充電樁設施建設的電動汽車已經成為世界各國發展的一個重要方向。目前,美國有超過25000個充電站和76000個充電樁,其中公共充電樁超過70%,充電基礎設施基本上覆2的故障研究等。機械、設備的故障診斷或者分析,在現實應用中影響巨大,可以及時判斷故障源頭、故障位置,甚至可以提出相應的解決方案,為人們生活或者工業生產減少損失。第二章相關背景知識互聯網快速發展,海量數據無處不在。對大量數據進行處理和分析計算的要求不斷提高,深度學習理論及其實踐研究受到前所未有的關注和發展,已成為一個重要的學習算法(李明杰,黃思聰,2020)。提取輸入數據的特征,分層抽取,使用激活函數實現自動提取。如今,可以不再依賴人工特征提取,取得模式識別領域的重大突破,如自然語言處理,計算機視覺等。深度學習的“學習”,主要是指學習數據的有用表示,尋找數據的內部結構,發現變量之間的內在關系。在這樣的狀況里已有研究證明,使用不用的數據表現方式,對結果會有不一樣的影響(劉婷娜,趙俊杰,2020)。良好的數據表示可以降低輸入數據中無關因素的影響,保留學習需要的有關因素。目前,深度學習正處在一個快速發展的階段。CNN是深度學習領域的重要結構之一,提取特征是其主要特點,由早期的尺度不變特征轉變(ScaleHOG),演化發展到現在。卷積神經網絡的研究始于20世紀80、90年代,21世紀以后,深度學習理論不斷提出和研究、數字計算設備得到巨大改進和優化,在這樣的狀態中卷積網絡進入告訴發展的時期(吳俊杰,陳麗娜,2020)。從中可以看出本研究特別注重跨學科交叉融合,借鑒相關領域如經濟學、社會學、等的理論工具和分析模型,以期從多維度解析研究問題,從而豐富和完善已有理論體系。CNN有兩大獨特優點:局部連接和權值共享,研究模式識別領域具有重要意義。作為典型的前饋神經網絡,CNN的本質是構造用于提取數據特征的多個卷積核。利用卷積核、卷積運算和池化操作,從這些動作可以意識到提取隱藏在數據中的拓撲特征。采用分層網絡結構,將提取的特征逐步抽象化,最終得到輸入數據的特征表示。CNN主要特點是稀疏連接、權值共享、空間或時間采樣的組3變性,因此CNN十分適合處理和學習海量數據。卷積神經網絡的描述如圖2-1式(2-1)所示,離散定義如公式(2-2)所示(孫欣然,朱嘉琪,2020)。公式(2-1)公式(2-2)卷積操作就是“循環乘積與相加”。設:信號a:[134987],信號b:[2463],卷積:a*b。卷積運算過程如圖2-2所示:4操作流程圖如下:操作流程圖如下:C(1)2x1=2(2)tx4+2x3=10(4)1x3+3x6+4x4+2x9=55(5)3x3+4x6+9x4+8x2=85(6)4x3+9x6+8x4+7×2=112他勝負55開(3)7x3-21←(1)輸入層(InputLayer):將數據統一預處理,得到想要的數據輸入形式,(2)卷積層(ConvolutionLayer):通過卷積運算提取數據的局部特征,送入池化層繼續篩選和過濾。卷積運算的主要目的是提高原始信號的特性,減少噪(3)池化層(PoolingLayer):降維處理,過濾掉不重要的特征,實現參數數量減少,提高計算速度和模型的容錯性,降低過擬合程度,為了獲得更具有代表性的特征;(4)全連接層(FullConnectedLayer):將處理后的極具代表性的抽象化特征整合起來,即對生成的特征進行加權;(5)輸出層(OutputLayer):輸出模型的預測結果。如圖2-3所示:2.3數據預處理5一般情況下,數據可能會出現不完整的、標注不統一、缺漏等情況,這時就需要對即將要輸入到卷積神經網絡的數據進行預處理,本文研究背景中這種情況是考慮的因素之一使得數據在一個統一的標準下,以便后面使用模型對數據進行處理和使用,有時可加快程序運行過程的收斂速度。在方法選擇上,本文運用了章教授倡導的定量與定性結合的方法,為研究提供了堅實的數據和理論支持。輸入數據是否經過預處理,對網絡的收斂和訓練速度有直接影響(李婷婷,馬德華,2020)。因此,不管是訓練集還是驗證集,或是測試集,數據輸入前,都必須進行預處理。(1)零均值化(中心化):常用于圖片處理。處理每個訓練數據的特征,減去特征均值。也就表示,現有結果顯示可以推出把數據中各個維度中心向零調整了。在幾何平面上的顯示效果是,將數據的中心移到坐標原點。(2)數據歸一化(又稱標準化):把需要處理的數據按照一定比例縮放,最后落在的一定范圍內。常用的兩種操作是減去數據的均值和除于標準差。(3)白化:用每個特征軸上的數據除以相應的特征值,從而達到歸一化幅度的目標。2.4幾種評估指標混淆矩陣(ConfusionMatrix),別名錯誤矩陣,它是一種常用的分類輔助工具,能直觀地查看數據在模型中的分布。不難推斷出混淆矩陣由兩個維度構成,一個維度表示預測的類別,另一個表示實際的類別(王宏偉,陳小東,2020)。該設計成果是在詳盡分析現有情況并充分利用現有的資源與技術后達成的。相較于傳統方法,此方法在多方面顯示出明顯優越性。如下表2-1所示:表2-1混淆矩陣實際為正樣本實際為負樣本兩個維度下可交織形成四種情況:(1)實際是正樣,預測也是正樣:TruePositive(TP);(2)實際是正樣,而預測是負樣:FalseNegative(FN);6預期結果與實際結果相同則稱為真True,預測結果與實際結果不同則稱為假2.4.2準確率的計算公式如公式(2-3)所示:公式(2-3)2.4.3精確度比情況11]。精確度的計算公式如公式(2-4)所示:公式(2-4)2.4.4召回率公式(2-5)F1Score是一個綜合精確度和召回率的指標。F1值的計算公式如公式(2-6)7公式(2-6)2.5本章小結近幾年來,將深度學習算法應用于實際生產和人們日常生活中的例子越來越多,由此可以洞悉第一小節介紹了深度學習的研究現狀和成功應用領域。緊接著,第二小節闡述了CNN、一維卷積運算、卷積網絡一般結構。本章的第三小節解釋了數據預處理的必要性,還列舉了常用的幾種數據預處理方法,比如,零均值化、標準化、白化(李雅婷,張偉東,2020)。隨著探究的不斷深入,本文期待揭示更多深層次的原理。最后一個小節,鑒于此類條件特征可以推知其可能后果考慮到深度學習預測數據,就需要一些指標來衡量模型的優劣程度,介紹了混淆矩陣、準確率精確度、召回率、F1Score等評價指標及相應計算公式。8第三章整體設計介紹驗證集驗證、測試集測試。如圖3-1模塊流程所示(王天宇,楊美琳,2020):調整優化驗證模塊數據預處理加載結果評估數據采集圖3-1模塊流程整體的設計結構如圖3-2整體設計結構所示:數據測試數據收集結果評價參數調整數據集劃分卷積網絡構建參數初始化數據預處理驗證模型訓練模型9PyTorch是近年來最受歡迎的使用框架之一,前身是Torch,是一個開源的深(1)良好的靈活性,支持動態計算圖;(2)易用,近于傻瓜式操作,很實用;(3)有非常詳盡清楚的官方指南。3.4卷積神經網絡構建CNN包含:數據輸入層、卷積層、池化層、全連接層、輸出層,網絡中層與層的關系聯系緊密[12]。輸入層是輸入數據的預處理過程,數據是否符合輸入要求,會影響神經網絡的收斂速度和訓練時間[13]。同時,在這樣的情形之中激活函數是受值域影響的,所以,在輸入層時就需要將訓練的數據映射到激活函數的值域(朱俊熙,王曉光,2020)13]。本文也關注了研究結果與實踐應用的結合點,探討其對于解決實際問題的價值和意義,旨在促進理論與實踐的雙向互動推動學科知識的不斷完卷積層是核心層,其核心之處在于卷積操作,這一層將產生網絡中最大的數據計算量14]。可以將卷積理解為一個函數,確定輸入數據和卷積核,經過一定一維卷積的輸入是1個向量和卷積核,這在一定程度上反映出來輸出是1個向量。一般情況,卷積核長度要小于輸入向量。卷積核的大小一般為奇數*奇數,主要原因是:(1)易于填充。從這些經歷中明白填充操作是為了使卷積前后的尺寸一樣。具體舉例:假設輸入為4*4,要求輸出也是4*4。該成果與本文初步預測的研究成果相符,表明了研究路徑的精準無誤。這種一致性證明了本文在研究設計與分析等方面的嚴密性和科學性。當卷積核為3*3時,填充即在輸入數據的四周增添1層;而當卷積核為2*2時,填充即在輸入數據的兩邊增添1層。如圖3-3所示,左圖是卷積核為奇數的填充情況,右圖是卷積核為偶數的填充情況,其中黃色區域代表3*3或者2*2的卷積核,這些事件預示著一些未來的可能性綠色區域代表4*4的原始尺寸(有部分與黃色重疊),藍色為填充區域(有部分與黃色重疊)圖3-3奇、偶數卷積核的填充情況(2)易于確定卷積錨點。從這些案例中顯而易見卷積操作時,通常把卷積核的中心當為基準。奇數比較好確定卷積核的中心,若是偶數就不好確定了。卷積層的下一層就是池化層,這一層的主要作用是減少冗余信息,提高模型的不變性,防止模型出現過擬合。目前主要有兩種池化方法:平均法(Mean平均池化法的前向傳播是指,從這些評論可以理解對區域內數據將其均值傳給下一層,如圖3-4所示;而反向傳播是指,將數據平均化分給前一層,如圖3-5所示,并且平均池化前后梯度之和不變。233243324111311圖3-4平均池化的前向傳播反向傳播圖3-5平均池化的反向傳播最大值池化是最常見、使用最多的池化方法。最大池化提取了最大值,同時也滿足梯度之和不變的要求(許雅,陳婉君,2020)。在這樣的場合下它的向前傳播是將區域中的最大值傳給下一層[15];反向傳播是將值傳給前一層的某一特定位置,這個特定位置也就是前向傳播時此最大值所在的位置,其余位置用“0”補充。上述結論在全面性和合理性方面均達標,體現了本研究團隊的嚴謹作風與科學方法。通過深入探究,不僅驗證了已整理的理論依據,還發掘了一些新的現象和趨勢,這些新發現為相關領域的研究提供了新視角和新啟迪。224112433223313114143全連接層(FC),一般會放在網絡的末尾,整合卷積后輸出的高抽象性特征,不同分類結果會有不同的概率,FC起到分類器的作用,由此可以明了其意依照概率進行分類[16]。本章主要介紹了此次實驗構建的分析模型的整體設計。第一小節描述了此次實驗的需求,包括數據預處理、卷積神經網絡建立、訓練過程建立、參數調整、測試集測試等,并以圖3-1展示需要完成的過程。上述結論在全面性和科學性上均達標,展現了本研究團隊的嚴謹態度與科學思維。通過深入探究,不僅驗證了已整理的理論支撐,還發現了一些新的現象和趨勢,這些新發現為相關領域的研究提供了新視角和新思路。在第二小節中,則以流程圖的形式完整的展示此實驗整體設計結構和結果評估輸出。第三小節重點介紹卷積神經網絡的構建,輔以圖表形式,分別介紹了各層次的功能和作用。第四章分析模型的局部處理本文采用的實驗數據來自百度點石中“充電樁故障分類與檢測”的賽題數據集,于這樣的條件框架內可以推知結果可直接從網上下載數據集csv文件到本地。此數據集包括85500條數據,數據量較為充足(劉婷怡,王鵬宇,2020)。通過綜合運用這些方法,我們得以更深刻地洞察所研究現象的本質及其運行機制。在評估干擾因素與誤差源頭方面,本文展開了全面且系統的探討。數據集有分訓練集、驗證集和測試集,需要對原始數據集進行劃分。若將所有數據用來訓練模型,可能會產生過擬合,即模型擬合這些原始數據樣本,在面臨新的樣本數據時,就無法擬合(陸曉彤,張天明,2020)17]。效果大大低于只用訓練集的數據參與模型的調參過程,顯然無法用來反映模型的實際能力。驗證集涉及人工調參(超參數)過程,基于這些因素之下也無法用于最終的判斷模型。因此,需要另外的測試集來檢查模型的實際能力(張琳娜,王俊熙,2020)。數據集具有泛化性和代表性,數據量通常較大,因此只需準備一小部分數據作為驗證集即可。當然驗證集也不是必須的。在這場景中展開本實驗對下載到的原始數據集進行劃分,按6:2:2比例,即取60%的數據作為訓練集,20%的數據作為驗證集,剩余20%的數據作為測試集,并且保證每個數據集中標簽為1和標簽為0的數據量比基本為1:1。數據集劃分情況如圖4-1數據集劃分情況所示(徐星宇,李若彤,2020)。通過詳細的研究記錄、數據收集分析流程的描述,以及直觀的研究結果圖表,有助于研究成果的普及與應用。0范圍總計訓練集4.2卷積神經網絡構建CNN除了包括輸入層、卷積層、池化層、全連接層、輸出層12],還有激發層、正則化層等等。卷積層是CNN的核心層。torch.nn.Module類的內部有超過40個的函數,是并重新構造init和forward。init中主要是初始化一些層;forward則是實現層與層的連接。利用classtorch.nn.Convld()對卷積網絡進行定義,根據需要對層數和相應參數進行設置,各參數含義如表4-2介紹所示:卷積過程可能會出現數據維度不一致的結果,在這形勢影響下這時可能要對數據進行歸一化,使每一層的輸入保持相同的分布[18],可利用nn.BatchNorm1d()對輸入進行批標準化操作,從而獲得想要的數據分布(高思琪,孫浩然,2020)。通過廣泛測試不同類型和來源的數據,驗證了該方案的穩健性和可靠性。為避免外界環境對分析結論產生不利影響,本文在整個策劃和操作流程中實施了若干措施以保障信息的正確無誤以及計劃的堅韌性。卷積層不包含激活函數,需要定義激活函數,其作用是能在神經網絡中加入一些非線性因子,使其能較好地解決較復雜的問題。根據當前的情景激活函數最終決定了要發射給下一個節點的內容,定義了該節點在給定的輸入或輸入集合下的輸出。激活函數應該具有的性質如圖4-1所示(趙明和,李婉如,2020):性質原因非線性線性激活層不起作用范圍最好不飽和當有飽和的區間段時,若系統優化進入到該段,梯度當激活函數是單調時,單層神經網絡的誤差函數是凸的,好優化習,而不必調整網絡的初值目前常用的激活函數都只有圖4-1中的某幾個特性,無一具有全部特征。目前流行的激活函數一一線性整流函數(ReLU),它的取值區間為(0,+∞)。在數學學科中,ReLU激活函數指的是斜坡函數,成本控制方面,通過簡化非必要流程、采用更具成本效益的策略,有效降低了整體投入成本,使方案更顯經濟實惠。即公式(4-1),圖像如圖4-1所示。使用ReLU后,輸入向量a,圍繞這狀況展開會輸出max(0,WTa+b)到下一層。ReLU激活函數的優缺點總結如圖4-3所示公式(4-1)優點缺點反向傳播時,可以避免梯度消失依存關系,緩解了過擬合問題的發生左側神經元為0,導致神經元死亡,不再更新求導相對簡單在這框架范圍內如果建立的學習模型在訓練樣本上表現過于優越,而在驗證數據集,測試數據集上的性能較差,這就是過擬合[19]。造成過擬合的原因有很多,比如:數據量太小、訓練集和驗證集分布不一致、模型復雜度太大、數據質量很差。過擬合具有比較大的危害(孫嘉偉,張靜萱,2020):為了進一步驗證計劃在不同條件下的實用性,本文選擇了幾種典型的應用實例,并針對每個實例調整了系統配置,不僅證明了計劃的可行性和正確性,也為今后的研究提供了有價值的參考資料。在這類環境中過擬合模型可視為完全記憶型模型,因而在實際應用中沒有實用價值。常見的解決過擬合的一種方法是Dropout,其原理是讓網絡中的一些神經元隨機停止工作(如圖3-3所示),從而達到簡化的過程。一般訓練過程為:第一步:網絡的權值初始化;第二步:數據經過卷積層、下采樣層、全連接層的向前傳播得到輸出值[54];第三步:求出網絡的輸出值與目標值之間的誤差;第四步:誤差大于期望值時,會把誤差傳回網絡;否則,結束訓練。第五步:利用誤差值進行權值更新。重新回到第二步。更新權值輸出的偏量偏量是否在容許范圍內?是神經元的誤差否卷積網絡的訓練分為兩個階段,前向傳播和反向傳播。第一個階段數據由低向高層次流動。通過分析這些內容可以看出卷積層對輸入數據執行卷積,利用激活函數輸出;卷積層的輸出即為下采樣層的輸入,經過池化,降低數據維度,可以避免過擬合,再輸出結果(周子和,李夢琳,2020);全連接層將前面網絡層提取到的特征通過全連接,進行分類,從而獲得分類模型,得到最后的結果。另外一個階段數據由低向高層次流動,不同于第一個階段,這時候的數據指的是誤差。未達到預期前,由此可以推測出需要不斷地調整網絡的權值。具體誤差傳輸過程為:首先,求出網絡總誤差δ(x),即返回值與目標值的差值。再將誤差一層一層的返回上一層。計算出每一層的誤差,基于本文的研究前提我們對這種情況進行了深入探討進行權值更新(吳志遠,何婉瑩,2020)。誤差的來源是多樣的、不定性的,例如,在層與層的傳送中可能出現數據丟失,這就會造成誤差,同時,各網絡層出現的誤差是不定值的。反向傳播傳回誤差時,需將誤差按比重傳給各個層。這種深化不僅體現在對概念內涵的細致剖析上,還體現在對其外延的廣泛探索中。通過對相關文獻的梳理和實證數據的分析,本文進一步明確了這些關鍵概念在理論體系中的地位和作用,以及它們之間的相互關系。網絡總誤差δ(x)的計算如公式(4-2)所示,其中:x表示輸出層,a(x)表示x層的輸出結果,y為期望值,f(Z(x)為激勵函數導函數的值:δ(x)=-(y-a(x))*f(Z(x))公式(4-2)權值更新過程如下:混淆矩陣作為卷積核,對卷積核輸入特征圖進行權值偏差矩陣,與原卷積核的權值相加,得到更新后的卷積核[20]。在完全聯結層中,權值更新的過程是(鄭思,黃雅靜,2020):這在某種程度上映射首先確定權值的偏導數值:學習率與激勵函數的倒數相乘,輸入值與原權值相加,得到新的權值矩本章主要闡述了實驗中的一些局部設計處理內容。第一小節介紹了對實驗中用到的數據集的預處理,這在某種程度上揭示出劃分數據集的情況。第二小節則重點介紹了構建卷積神經網絡過程中需要定義的一些層次及相應的函數調用實現、參數定義情況,包涵了Conv1d()、ReLU激活函數、dropout等。第三小節第五章實驗與結果分析5.1運行環境和編程語言本實驗是在PyTorch框架下進行的,在PyCharm平臺上使用Python語程序編寫和調試運行,代碼格式依照PyCharm平臺的規范。anaconda的安裝包,用來管理工作環境。這在一定層面上證實了在AnacondaPrompt窗□新建一個pytorch環境,激活此環境。在PyTorch官網上選擇合適的下載安裝命令,在激活的pytorch環境下運行此安裝命令,進行安裝。本文還對健性。搭建好的pytorch環境,即可編譯使用。5.2數據集采集本文采用的實驗數據來源是百度點石中“充電樁據集,可直接從網上下載數據集csv文件到本地。5.3實驗結果分析果”表示對于輸入數據的預測類別、另一個維度“Trueresult真實結果”是數據通過混淆矩陣可知,這在某個角度上證明了本次輸入數據共有17100條,其中實際標簽值為“0”的有8449條,分析正確的有7597條,852條分析錯誤;實際標簽值為“1”的共有8651條,分析正確的有7659條,剩余的992條分析錯準確率(Acc)可以直接運用本文公式(2-3)計算得到的,但是精確度、召回average=macro,計算二分類metrics的均值,這在某種程度上象征給每個類相同權重的分值。因而得到的結果分別為:P和N的計算如公式(5-1)和公式(5-2)所示(郭子豪,劉婉君,2020)。公式(5-1)公式(5-2)在此類環境中受試者工作特征曲線(ROC),是一個基于混淆矩陣得出的圖示;縱坐標為真陽性率(TruePositiveRate,TPR),如公式(5-4)所示。公式(5-3)公式(5-4)豪,趙雅琳,2020)。在ROC曲線圖像上的表現為,越靠近坐標點(0,1)的情況ROC定量分析:將ROC曲線沿著橫坐標軸做積分,得到的面積大小,即為現單一學科研究難以發現的新規律和新現象。本實驗模型得到的ROC曲線如圖線無論實際樣本為正或為負,預測為正和為負的概率都是0.5。從這些動作可以意識到此實驗得到的AUC值為0.8917,說明此模型的性能較好。AUC數值范圍模型性能效果較低,可用于預測股票效果一般效果很好效果非常好,但一般不太可能5.4本章小結本章節主要闡述了實驗的運行環境、數據采集方小節介紹了PyTorch環境的搭建和PyCharm的使用。第二小節介紹了本實驗所用價指標情況,以及實驗的ROC曲線情況,從而判斷該模型的有效性情況。故障診斷分析問題主要基于對大量數據進行處理和學習,在有新的樣本數據輸入時,希望可以輸出正確的預測結果。而卷積神經網絡能夠利用卷積核對輸入數據進行卷積池化,從這些意見中看出提取出數據中的結構特征,其權值共享的特性也可以有效地避免過擬合。基于研究主題,精心謀劃科學合理的研究方案,涵蓋數據收集辦法、樣本選取標準以及分析架構。因此,CNN可以在深度學習故障診斷領域中發揮極大的作用。本實驗旨在使用CNN模型,通過對充電樁故障的數據集進行模型訓練,希望得到一個可以盡量準確的關于某充電樁是否能正常使用的結果。經實驗可知,17100條數據的測試集經過模型分析,可以得到準確率大約在88%的結果,表明此模型具有良好的可靠性。[1]袁鴻濤.純電動汽車電控系統專利預警分析[D].景德鎮陶瓷大學,2019.

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論