




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
1、三角形隸屬度函數(shù)用于模糊神經(jīng)網(wǎng)絡的衡器標定摘 要目的:目的:將三角型隸屬度函數(shù)的模糊神經(jīng)網(wǎng)絡用于電容式多功能天車秤,實現(xiàn)電解鋁的稱重過程的計量,提高稱重的準確度。方法:方法:用一部分實際鋁稱重的部分屬于做測試,利用三角形隸屬函數(shù)對這部分數(shù)據(jù)進行模糊化處理,然后輸入到基于 bp 算法的神經(jīng)網(wǎng)絡,對該網(wǎng)絡進行訓練。用訓練好的網(wǎng)絡對剩下的數(shù)據(jù)進行測試,并與之前的數(shù)據(jù)進行比較,得出對衡器標定的誤差,觀察準確程度。結果:結果:在稱重過程中融入了模糊理論與神經(jīng)網(wǎng)絡的方法,既考慮了稱重數(shù)據(jù)的模糊性又考慮稱重特征與稱重結果的復雜關系,使結果更加具有精確性,為衡器的標定開辟了一條新方法。關鍵詞:模糊神經(jīng)網(wǎng)絡 三
2、角型隸屬度函數(shù) bp 算法 鋁稱重abstract objective: to will triangle membership function of fuzzy neural network for capacitive multi-function ptm scale, the realization of the weighing process electrolytic aluminium, improve the accuracy of measurement weighing. methods: using part of the actual aluminum weighing
3、 part belong to do the test, and using triangle distrution function of this section data are fuzzed, then input to the neural network based on bp algorithm, the network for training. use for the rest of the trained network, and experimental data before, it is concluded that the data to compare calib
4、ration error, observing instruments that accurate degree. results: in weighing process into the fuzzy theory and the method of neural network, which considers the fuzziness of the weighing data and consider the characteristics and weighing weighing, to make the result more complicated relationship w
5、ith accuracy, the calibration for instruments have opened up a new method. keywords: fuzzy neural network triangle membership function bp algorithm aluminum weighing目錄摘摘 要要.1abstract.1第一章第一章 引言引言.31.1 課題的研究背景、目的和意義.31.2 本課題的主要研究內容.3第二章第二章 電子稱重系統(tǒng)以及數(shù)據(jù)提取方法電子稱重系統(tǒng)以及數(shù)據(jù)提取方法.42.1 電容式多功能天車電子秤.42.2 稱重數(shù)據(jù)的提取.4第
6、三章第三章 模糊神經(jīng)網(wǎng)絡以及模糊神經(jīng)網(wǎng)絡以及 bp 算法算法.63.1 模糊神經(jīng)網(wǎng)絡基礎.63.1.1神經(jīng)網(wǎng)絡.63.1.2模糊理論.73.2 bp 神經(jīng)網(wǎng)絡 .93.2.1 bp網(wǎng)絡的結構.93.2.2 bp神經(jīng)網(wǎng)絡的學習算法.103.3 bp 神經(jīng)網(wǎng)絡設計基礎 .183.3.1 訓練樣本集的準備.183.3.2 初始權值的設計.203.3.3 bp多層感知器結構設計.213.3.4 網(wǎng)絡訓練與測試.22第四章第四章 三角形隸屬度函數(shù)在鋁稱重的應用三角形隸屬度函數(shù)在鋁稱重的應用.224.1 隸屬函數(shù) .224.2 模糊神經(jīng)網(wǎng)絡的結構模型 .25第五章第五章 模糊神經(jīng)網(wǎng)絡用于鋁稱重的步驟模糊神
7、經(jīng)網(wǎng)絡用于鋁稱重的步驟.265.1 特征提取和模糊化 .265.2 隸屬函數(shù)選取 .265.3 隱含層和輸出層的處理 .27第六章第六章 實驗結果的討論實驗結果的討論.306.1 三角形隸屬度函數(shù)稱重結果 .306.2 三角形型隸屬度函數(shù)模糊神經(jīng)網(wǎng)絡的稱重結果分析 .30第七章第七章 結論結論.30參考文獻參考文獻.31附錄:仿真程序附錄:仿真程序.33第一章 引言1.1 課題的研究背景、目的和意義任何一個產鋁企業(yè)的管理層,均應該準確地掌握生產設備的生產能力、設備運行效率等原始數(shù)據(jù),從而依據(jù)這些原始數(shù)據(jù),科學、合理的調控生產。但由于工藝條件的限制,長期以來,卻始終無法準確地掌握單槽原鋁日產量。
8、導致管理人員無法根據(jù)出鋁量得到電解槽運行狀態(tài),對鋁電解槽的均衡穩(wěn)定生產帶來不利影響。目前的出鋁生產管理,大部分采用人工計數(shù)、結合鑄造車間稱重抬包總重,來統(tǒng)計單個電解槽和單個鋁包的出鋁量;受生產現(xiàn)場電磁場干擾和人工操作的影響,無法準確控制單槽出鋁精度,單個電解槽的析出數(shù)量與析出精度始終是鋁電解生產管理中的一個“盲區(qū)”。導致管理人員無法根據(jù)出鋁量得到電解槽運行狀態(tài),對鋁電解槽的均衡穩(wěn)定生產帶來不利影響。1.2 本課題的主要研究內容本系統(tǒng)主要有三大模塊組成,如下圖所示: 三大模塊包括的內容為:一、完成課題所需特征數(shù)據(jù)的提取及量化。二、對特征數(shù)據(jù)進行模糊化處理。包括對特征數(shù)據(jù)的分析,選出需要模糊化的項
9、,對模糊理論的深入認識,選擇三角形隸屬函數(shù)等。三、完成對系統(tǒng)的設計和特征數(shù)據(jù)的學習、結果預測等。包括對神經(jīng)網(wǎng)絡、模糊理論及二者結合的必要性的深入研究,對 bp 神經(jīng)網(wǎng)絡的原理、結構及學習方法的深入研究等。本文關鍵是運用模糊數(shù)學和神經(jīng)網(wǎng)絡構建了一個模糊神經(jīng)網(wǎng)絡模型,用于鋁稱重,提高計量精度控制。以一部分實際出鋁重量為樣本,首先利用三角形隸屬函數(shù)對樣本數(shù)據(jù)進行模糊化處理,再輸入基于 bp 算法的神經(jīng)網(wǎng)絡,對網(wǎng)絡進行訓練,用訓練好的網(wǎng)絡對余下的樣本進行預測。并將預測結果與之前數(shù)據(jù)進行比較。第二章 電子稱重系統(tǒng)以及數(shù)據(jù)提取方法2.1 電容式多功能天車電子秤電容式多功能天車秤有秤體部分和儀表部分兩部分組
10、成。秤體部分主要由稱重傳感器、lc 振蕩器、編碼器、溫度傳感器等組成。當外加荷載(被稱重物)作用于電容式稱重傳感器時,作為傳感器主體的彈性元件將產生與荷載值相對應的微小變形,使設在彈性體內的電容的極間距離隨之改變,這樣就引起電容器的電容量的變化,這樣就引起電容器的電容量的變化,從而使 lc 振蕩器的頻率也隨著改變。振蕩信號經(jīng)過編碼器進行計數(shù)(我們成為內碼)處理,處理后的信號通過信號電纜傳輸給儀表。稱體中溫度傳感器的作用是,將傳感器的內部溫度變化轉變成電信號送編碼器在發(fā)送給儀表,從而通過儀表中的微計算機自動修正因溫度變化對稱重傳感器的影響,保證稱重結果的準確性。儀表通過信號電纜接收到傳感器信號后
11、,再進行解碼并送入微處理器,微處理器根據(jù)鍵盤輸入的指令要求,對該解碼信號進行處理,最后將求出的稱重結果送顯示器、打印機、寄存器等。2.2 稱重數(shù)據(jù)的提取在不同的溫度環(huán)境下對傳感器的 12 個稱量點進行測量,具體實驗數(shù)據(jù)如下:低溫測試數(shù)據(jù):溫度稱量點-14.1-13.5-12.80 噸1144280114478311447281 噸1198223119871911986952 噸1247761124823412482333 噸1293546129397312939934 噸1336091133645313364975 噸1375803137609213761526 噸14130111413231
12、14133047 噸1447980144812814482168 噸1480933148102214811159 噸15120841512114151221810 噸15415921541570154168411 噸156962115695591569674常溫測試數(shù)據(jù):溫度稱量點1717.818.918.818.818.80 噸1149247114935711494811148700114872811487271 噸1203060120316112032811202528120255112025532 噸1252432125253312526511251927125194612519473
13、噸1298060129815912982731297567129758312975874 噸1340439134053513406471339959133997413399785 噸1379980138007413801821379513137952813795326 噸1414030141712314172281416576141659014165957 噸1451854145193214520351451398145141014514168 噸1484659148475114848511484215148422414842329 噸15156721515762151586015152401
14、515248151525610 噸15450541545142154523915446281544638154464511 噸157295815730441573140157254315725521572562高溫測試數(shù)據(jù):溫度稱量點53.154.656.858.559.50 噸115469411551041153870115435411559651 噸120833612086911207547120800312094812 噸125754712578571256799125724712586193 噸130302113032911302305130273813040174 噸13452561
15、3454921344571134498313461795 噸138467113848671384012138439513855086 噸142161314217621420956142132014223547 噸145630414564321455669145601114569678 噸148900014891191488383148870214895889 噸1519911152000515193081519605152042410 噸1549192154926915485991548875154963811 噸15769951577060157642015766771577383 根據(jù)以上
16、表格內所示數(shù)據(jù),我們可以得到溫度對傳感器輸出的影響,可以做出傳感器的特性曲線如下圖所示:圖 2.3 傳感器的特性曲線第三章 模糊神經(jīng)網(wǎng)絡以及 bp 算法3.1 模糊神經(jīng)網(wǎng)絡基礎3.1.1 神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡理論2 3 15 30是一種仿效生物處理模式以獲取智能信息處理功能的理論。它通過大量神經(jīng)元的復雜連接,經(jīng)過自學習、自組織和非線性動力學所形成的并行分布方式,來處理難于語言化的模式信息。神經(jīng)網(wǎng)絡的基本結構神經(jīng)網(wǎng)絡是由大量神經(jīng)元廣泛互連而成的復雜網(wǎng)絡系統(tǒng)。單一神經(jīng)元可以有許多輸入、輸出。神經(jīng)元之間的相互作用通過連接的權值來體現(xiàn)。圖 3-1 中, x1,x2,xn是神經(jīng)元的輸入,是來自前級 n 個神
17、經(jīng)元的軸突的信息,是 i 神經(jīng)元的閻值;iwi1,wi2,win分別是 i 神經(jīng)元對 x1,x2,xn的權系數(shù),即突觸的傳遞效率;yi是 i 神經(jīng)元的輸出;f是激活函數(shù),它決定 i 神經(jīng)元受到輸人 x1,x2,xn的共同刺激達到閥值時以何種方式輸出。圖 3-1-1 單一神經(jīng)元 對于線性型激活函數(shù),有: iif(u )uk二、神經(jīng)網(wǎng)絡的基本特征1、大規(guī)模并行處理。 神經(jīng)網(wǎng)絡能同時處理與決策有關的因素,雖然單個神經(jīng)元的動作速度不快,但網(wǎng)絡的總體處理速度極快。2、容錯性。 由于神經(jīng)網(wǎng)絡包含的信息是分布存儲的,即使網(wǎng)絡某些單元和連接有缺陷,它仍然可以通過聯(lián)想得到全部或大部分信息。3、自適應性和自組織性
18、。 神經(jīng)網(wǎng)絡系統(tǒng)可以通過學習不斷適應環(huán)境,增加知識的容量。 正是這些特點使得神經(jīng)網(wǎng)絡本質上有別于傳統(tǒng)的計算機,從而為人們在利用機器加工處理信息方面提供了一種全新的方法和途徑。3.1.2 模糊理論人的思維顯著的特點是具有模糊性,模糊性也是人類自然語言的本質屬性。例如:“健康”與“不健康” , “好”與“不好” , “穩(wěn)定”與“不穩(wěn)定” , “年輕” 、 “中年”與“老年”等之間都找不到明確的界限。這種從差異的一方到另一方,中間經(jīng)歷了一個從量變到質變的連續(xù)過度的過程的現(xiàn)象就叫做模糊差異的中介過度性,由這種中介過度性造就出劃分上的不確定性就叫做模糊性(fuzziness) 。模糊數(shù)學25(fuzzy
19、)是研究和處理模糊現(xiàn)象的,所研究的事物的概念本身是模糊的,即具有模糊性。 隸屬度是模糊理論中的一個重要的概念,它指一個元素對某一個集合的隸屬程度。隸屬度由隸屬函數(shù)求得。 1965 年美國加州大學控制專家 l.a.zadeh 教授創(chuàng)立了模糊集合論,提出用模糊集合來刻畫模糊概念。模糊集合由隸屬函數(shù)來刻畫。定義定義 論域中的模糊子集,是以隸屬函數(shù)表征的集合。即由映射uaa :0,1au ( )auu確定論域的一個模糊子集。稱為模糊子集的隸屬函數(shù),稱為對uaaa( )auu的隸屬度,它表示論域中的元素屬于其模糊子集的程度。它在0,1閉區(qū)間可連續(xù)aua取值。 =1,表示完全屬于;=0,表示完全不屬于;0
20、1,( )auua( )auua( )au表示屬于的程度。ua 上述定義表明:一、論域中的元素是分明的,即本身是普通集合,只是的子集是模糊集合,uuu故稱為的模糊子集,簡稱模糊集。au二、隸屬函數(shù)是用來說明隸屬于的程度的,的值越接近于 1,表示( )auua( )au隸屬的程度越高;當?shù)闹涤蜃優(yōu)?,1時,隸屬函數(shù)蛻化為普通集合的ua( )au( )au特征函數(shù),模糊集合也就蛻化為普通集合。三、模糊集合完全由其隸屬函數(shù)來刻畫。隸屬函數(shù)是模糊數(shù)學的最基本概念,借助于它才能對模糊集合進行量化。3.1.3 模糊神經(jīng)網(wǎng)絡一、模糊神經(jīng)網(wǎng)絡7 18 19的概念 所謂模糊神經(jīng)網(wǎng)絡就是神經(jīng)網(wǎng)絡與模糊理論相結合所
21、產生的一種新的網(wǎng)絡系統(tǒng)。人腦是神經(jīng)網(wǎng)絡和模糊系統(tǒng)的自然結合。從物質結構上看,人腦是一種典型的生物神經(jīng)網(wǎng)絡;從主要的功能角度來看,人腦又是一個典型的模糊系統(tǒng)。人工神經(jīng)網(wǎng)絡直接以人腦作為其模型基礎;而模糊系統(tǒng)則是以模糊集合論、模糊語言變量及模糊邏輯推理的知識為基礎。因此,人工神經(jīng)網(wǎng)絡和模糊系統(tǒng)相結合很自然地成為了一種方向和趨勢。它的一個顯著的特點就是:它的每個節(jié)點(模糊神經(jīng)元)可取值于0,1區(qū)間。例如,用一個節(jié)點表示一個人的身體健康程度,當取值 0.8 時,就表示健康的程度為 0.8。二、模糊神經(jīng)網(wǎng)絡的結合方式 由于模糊理論和神經(jīng)網(wǎng)絡又是兩個截然不同的領域;它們的基礎理論相差較遠。但是,它們都是智
22、能的仿真方法。是否可以把它們結合起來而加以應用呢?從客觀實踐和理論的溶合上講是完全可以令它們結合的。把模糊理論和神經(jīng)網(wǎng)絡相結合就產生了種新的技術領域:這就是模糊神經(jīng)網(wǎng)絡。模糊神經(jīng)網(wǎng)絡是正在不斷探討和研究的一個新領域。在目前,模糊神經(jīng)網(wǎng)絡有如下三種形式:1、邏輯模糊神經(jīng)網(wǎng)絡;2、算術模糊神經(jīng)網(wǎng)絡;3、混合模糊神經(jīng)網(wǎng)絡。模糊神經(jīng)網(wǎng)絡就是具有模糊權系數(shù)或者輸入信號是模糊量的神經(jīng)網(wǎng)絡。上面三種形式的模糊神經(jīng)網(wǎng)絡中所執(zhí)行的運算方法不同。模糊神經(jīng)網(wǎng)絡無論作為逼近器,還是模式存儲器,都是需要學習和優(yōu)化權系數(shù)的。學習算法是模糊神經(jīng)網(wǎng)絡優(yōu)化權系數(shù)的關鍵。對于邏輯模糊神經(jīng)網(wǎng)絡,可采用基于誤差的學習算法,也即是監(jiān)視
23、學習算法。對于算術模糊神經(jīng)網(wǎng)絡,則有模糊 bp 算法,遺傳算法等。對于混合模糊神經(jīng)網(wǎng)絡,目前尚未有合理的算法;不過,混合模糊神經(jīng)網(wǎng)絡一般是用于計算而不是用于學習的,它不必一定學習。三、模糊神經(jīng)網(wǎng)絡的優(yōu)點 目前模糊神經(jīng)網(wǎng)絡的研究已經(jīng)稱為國際上一個引人注目的研究方向,通過研究可以發(fā)現(xiàn),模糊理論和神經(jīng)網(wǎng)絡有著許多共同特點:1、都可以通過給定輸入/輸出信號,建立系統(tǒng)的非線性關系,不依賴特定的數(shù)學描述的系統(tǒng)模型;2、數(shù)據(jù)的處理形式都是并行的,因而相對應的系統(tǒng)結構也是并行的。當然,也有很多不同的地方,如:1、神經(jīng)網(wǎng)絡對外界的變化有很強的適應能力,但其內部典型的黑箱學習模式,使人們無法了解學習過程中的數(shù)據(jù)意
24、義,也無法用人們常用的方式來解釋其輸入輸出關系;2、模糊系統(tǒng)是建立在容易讓人理解的(ifthen)方式上的,但是很難自動生成和調整隸屬函數(shù)和模糊規(guī)則,系統(tǒng)的自適應能力不如神經(jīng)網(wǎng)絡系統(tǒng)。由此可看出,模糊系統(tǒng)和神經(jīng)網(wǎng)絡有很多互補的特點,如果能取長補短,便可提高系統(tǒng)的學習和適應能力,增強系統(tǒng)的表達與理解能力。模糊理論技術與神經(jīng)網(wǎng)絡的結合在結構上有:將模糊原理引入現(xiàn)有神經(jīng)網(wǎng)絡結構,形成模糊化神經(jīng)網(wǎng)絡,或將人工神經(jīng)網(wǎng)絡作為模糊系統(tǒng)中的隸屬函數(shù)、模糊規(guī)則、擴展原理,形成神經(jīng)化模糊系統(tǒng)兩種。3.2 bp 神經(jīng)網(wǎng)絡bp 神經(jīng)網(wǎng)絡9 10 1617即誤差反向傳播神經(jīng)網(wǎng)絡是神經(jīng)網(wǎng)絡模型中使用最廣泛的一種,在人工神
25、經(jīng)網(wǎng)絡的目前實際應用中,一般都是采用 bp 網(wǎng)絡和它的變化形式。bp 神經(jīng)網(wǎng)絡主要用于:函數(shù)逼近、模式識別分類和數(shù)據(jù)壓縮。3.2.1 bp 網(wǎng)絡的結構一般來講,bp 網(wǎng)絡是一種具有三層或三層以上的多層神經(jīng)元網(wǎng)絡,它的各層之間各個神經(jīng)元實現(xiàn)全連接,即前一層的每一個神經(jīng)元與后面一層的每個神經(jīng)元都有連接,而同一層各神經(jīng)元之間無連接。圖 3-3 所示。bp 網(wǎng)絡按有教師學習方式進行訓練,當一對學習模式提供給網(wǎng)絡后,其神經(jīng)元的激活值將從輸入層經(jīng)各中間層向輸出層傳播,在輸出層的各神經(jīng)元輸出對應于輸入模式的網(wǎng)絡響應。然后,按減少希望輸出與實際輸出誤差的原則,從輸出層經(jīng)各中間層、最后回到輸入層逐層修正各連接權
26、。由于這種修正過程是從輸出到輸入逐層進行的,所以稱它為“誤差逆?zhèn)鞑ニ惴ā?。隨著這種誤差逆?zhèn)鞑ビ柧毜牟粩噙M行,網(wǎng)絡對輸入模式響應的正確率也不斷提高。圖 3-2-1 bp 網(wǎng)絡結構圖3.2.2 bp 神經(jīng)網(wǎng)絡的學習算法一、一、bp 網(wǎng)絡的學習過程分析bp 網(wǎng)絡的學習過程主要由四部分組成: 1、輸入模式順傳播(輸入模式由輸入層經(jīng)中間層向輸出層傳播計算) ; 2、輸出誤差逆?zhèn)鞑ィㄝ敵龅恼`差由輸出層經(jīng)中間層傳向輸入層) ; 3、循環(huán)記憶訓練(模式順傳播與誤差逆?zhèn)鞑サ挠嬎氵^程反復交替循環(huán)進行) ; 4、學習結果判別(判定全局誤差是否趨向極小值) 。分析介紹如下:1、輸入模式順傳播 這一過程主要是利用輸入
27、模式求出它所對應的實際輸出。設輸入模式向量為 (;學習模式對數(shù);12,kkkknaaaa1,2,kmm輸入層單元個數(shù)) 。n與輸入模式相對應的希望輸出為 (輸出層單元數(shù)) 。12,kkkkqyyyyq根據(jù) m-p 神經(jīng)元模型(激活函數(shù)為閥值型,由美國心理學家 mcculloch 和數(shù)學家pitts 共同提出,因此稱為 m-p 模型)原理,計算中間層各神經(jīng)元的激活值: (.)1njijijisw a1,2,jp式中:輸入層至中間層的連接權;ijw 中間層單元的閥值;j中間層單元數(shù)。p激活函數(shù)采用型函數(shù),即 s1( )1 exp()f xx這里之所以選型函數(shù)作為 bp 網(wǎng)絡神經(jīng)元的激勵函數(shù)是因為它
28、是連續(xù)可微分的,而s且更接近于生物神經(jīng)元的信號輸出形式。 將上面的激活函數(shù)值代入激活函數(shù)中可得中間層單元的輸出值為j (.)11()1 exp()jjnijijibf sw a1,2,jp 閥值在學習過程中和權值一樣也不斷地被修正。閥值的作用反映在型函數(shù)的js輸出曲線上,圖 3-4 所示。由圖可見,閥值的作用相當于將輸出值移到了個單位。 01x0.5()f x圖 3-2-2 閥值對激活函數(shù)的作用j 同理,可求得輸出端的激活值和輸出值: 設輸出層第 個單元的激活值為,則ttl 1ptjtjtjlv b 設輸出值第 個單元的實際輸出值為,則ttc ()( )ttcf l1,2,tq式中:中間層至輸
29、出層連接權;jtv 輸出層單元閥值;t 型激活函數(shù)。fs2、輸出誤差逆?zhèn)鞑?在第一步的模式順傳播計算中我們得到了網(wǎng)絡的實際輸出值,當這些實際的輸出值與希望的輸出值不一樣時或者說其誤差大于所限定的數(shù)值時,就要對網(wǎng)絡進行校正。 這里的校正是從后向前進行的,所以叫作誤差逆?zhèn)鞑ィ嬎銜r是從輸出層到中間層,再從中間層到輸入層。 輸出層的校正誤差為: ()( )kkkkltttdycf l式中: 1,2,tq1,2,km 希望輸出;kty 實際輸出;ktc 對輸出層函數(shù)的導數(shù)。()f 中間層各單元的校正誤差為: ( )1()()qkkkjjtljtev dfs1,2,jp1,2,km 每一個中間單元的校正
30、誤差都是由個輸出層單元校正誤差傳遞而產生的。當校q正誤差求得后,則可利用和沿逆方向逐層調整輸出層至中間層,中間層至輸入層的kldkje權值。 對于輸出層至中間層連接權和輸出層閥值的校正量為 kkjtljvd b ktld其中,中間層單元的輸出;kjbj 輸出層的校正誤差。kld (學習系數(shù)) 。1,2,jp1,2,tq1,2,km01中間層至輸入層的校正量為: kkijjiwe a kje式中:中間層單元的校正誤差。kjej (學習系數(shù)) 。1,2,in01這里可以看出:(1)調整量與誤差成正比,即誤差越大,調整的幅度就越大。(2)調整量與輸入值的大小成比例,輸入值越大,在此次學習過程中就顯得
31、越活躍,所以與其相連的權值的調整幅度就越大。(3)調整量與學習系數(shù)成正比。3、循環(huán)記憶訓練 為使網(wǎng)絡的輸出誤差趨于極小值。對于 bp 網(wǎng)絡輸入的每一組訓練模式,要經(jīng)過數(shù)百次甚至上萬次的循環(huán)記憶訓練,才能使網(wǎng)絡記住這一模式。 這種循環(huán)記憶訓練實際上就是反復重復 1、2 的過程。4、學習結果判別 當每次循環(huán)記憶訓練結束后,都要進行學習結果的判別。判別的目的主要是檢查輸出誤差是否已經(jīng)小到允許的程度。如果小到了允許的程度,就可以結束整個學習過程,否則還要進行循環(huán)訓練。學習或者說訓練的過程是網(wǎng)絡全局誤差趨向極小值的過程。但是對于 bp 網(wǎng)絡,其收斂過程存在著兩個很大的缺陷:一是收斂速度慢,二是存在“局部
32、極小點”問題。在學習過程中有時會出現(xiàn),當學習反復進行到一定次數(shù)后,雖然網(wǎng)絡的實際輸出與希望輸出還存在很大的誤差,但無論再如何學習下去,網(wǎng)絡全局誤差的減小速度都變得很緩慢,或者根本不再變化,這種現(xiàn)象是因網(wǎng)絡收斂于局部極小點所致。bp 網(wǎng)絡的全局誤差函數(shù) e 是一個以 s 型函數(shù)為自變量的非線性函數(shù)。這就意味著由 e 構成的連接權空間不是只有一個極小點的曲面,而是存在多個局部極小點的超曲面,如圖 3-5 所示。ab誤差函數(shù)e局部極小點全局最小點局部極小點圖 3-2-2-2 多個極小點的連接權空間 導致這一缺陷的主要原因是采用了按誤差函數(shù)梯度下降的方向進行校正。在圖 3-5 中,若初始條件是從 a
33、點的位置開始則只能達到局部極小點,但如果從 b 點開始則可達到全局最小點。所以 bp 網(wǎng)的收斂依賴于學習模式的初始位置,適當改進 bp 網(wǎng)絡中間層的單元數(shù),或者給每個連接權加上一個很小的隨機數(shù),都有可能使收斂過程避開局部極小點。二、二、bp 網(wǎng)絡學習過程具體步驟1、初始化,給各連接權、及閾值、ijwjtvjt 1,2,in1,2,jp1,2,tq1,2,km賦予-1,+1之間的隨機值。2、隨機選取一模式對,提供給網(wǎng)絡。12,kkkknaaaa12,kkkkqyyyy3、用輸入模式,連接權和閾值計算中間層各神經(jīng)元的輸入12,kkkknaaaaijwj(激活值) ,然后用通過激活函數(shù)jsjs 1(
34、 )1xf xe計算中間層各單元的輸出:jb =jb()jf s式中: 1njijijisw a4、用中間層的輸出、連接權和閾值計算輸出層各單元的輸入(激活值) ,jbjtvttl然后用通過激活函數(shù)計算輸出層各單元的響應tltc =tc( )tf l式中: ()1ptjtjtjlv b1,2,tq5、用希望輸出模式,網(wǎng)絡實際輸出計算輸出層各單元的校正誤12,kkkkqyyyytc差:ktd ()() (1)kktttttdyc cc1,2,tq6、用,計算中間層的校正誤差:jtvtdjbkje ()1(1)qkjtjtjjtedvbb1,2,jp7、用,和計算下一次的中間層和輸出層之間的新連接
35、權:ktdjbjtvt (1)()kjtjttjvnvnd b (1)()ktttnnd式中:學習次數(shù)。n8、由,和計算下一次的輸入層和中間層之間的新連接權:kjekiaijwj (1)()kkijijjiwnwne a (1)()kjjjnne9、隨機選取下一個學習模式對提供給網(wǎng)絡,返回到第 3 步,直至全部個模式對訓m練完。10、重新從個學習模式對中隨機選取一個模式對,返回到第 3 步,直至網(wǎng)絡全局誤m差函數(shù)小于預先設定的限定值(網(wǎng)絡收斂)或學習回數(shù)大于預先設定的數(shù)值(網(wǎng)絡無法e收斂) 。11、學習結束在以上的學習步驟中 16 為輸入學習模式的“順傳播過程” ,78 為網(wǎng)絡誤差的“逆?zhèn)鞑ミ^
36、程” ,910 則完成訓練和收斂過程。bp 網(wǎng)絡學習過程框圖如圖 3-6 所示,根據(jù)框圖及上述計算步驟可編程完成對 bp 神經(jīng)網(wǎng)絡的訓練過程。 n否否圖 3-2-2-3 bp 網(wǎng)絡學習過程框圖3.3 bp 神經(jīng)網(wǎng)絡設計基礎3.3.1 訓練樣本集的準備訓練數(shù)據(jù)的準備工作是網(wǎng)絡設計與訓練的基礎,數(shù)據(jù)選擇的合理性以及數(shù)據(jù)表示的合理性對于網(wǎng)絡設計具有極為重要的影響。數(shù)據(jù)準備包括原始數(shù)據(jù)的收集、數(shù)據(jù)分析、變量選擇和數(shù)據(jù)預處理等諸多步驟,如下:一、輸入輸出量的選擇一個待建模系統(tǒng)的輸入輸出就是神經(jīng)網(wǎng)絡的輸入輸出變量。這些變量可能是事先確定的,也可能不夠明確,需要進行一番篩選。一般來講,輸出量代表系統(tǒng)要實現(xiàn)的
37、功能目標,其選擇確定相對容易一些,例如系統(tǒng)的性能指標,分類問題的類別歸屬,或非線性函數(shù)值等等。輸入量必須選擇那些對輸出影響大且能夠檢測或提取的變量,此外還要求各輸入變量之間互不相關或相關性很小,這是輸入量選擇的兩條基本原則。如果對某個變量是否適合作網(wǎng)絡輸入沒有把握,可分別訓練含有和不含有該輸入的兩個網(wǎng)絡,對其效果進行對比。從輸入、輸出量的性質來看,可分為兩類:一類是數(shù)值變量,一類是語言變量。數(shù)值變量的值是數(shù)值確定的連續(xù)量或離散量。語言變量是用自然語言表示的概念,其“語言值”是用自然語言表示的事物的各種屬性。例如,顏色、性別、規(guī)模等等都是語言變量。其語言值可分別取為紅、綠、藍,男、女,大、中、小
38、等。當選用語言變量作為網(wǎng)絡的輸入或輸出變量時,需將其語言值轉換為離散的數(shù)值量。二、輸入量的提取與表示 很多情況下,神經(jīng)網(wǎng)絡的輸入量無法直接獲得,常常需要用信號處理與特征提取技術從原始數(shù)據(jù)中提取能反映其特征的若干特征參數(shù)作為網(wǎng)絡的輸入,提取方法與待解決的問題密切相關,下面討論典型的幾種情況。1、文字符號輸入 在各類字符識別的應用中,均以字符為輸入的原始對象。bp 網(wǎng)絡的輸入層不能直接接受字符輸入,必須先對其進行編碼,變成網(wǎng)絡可接受的形式。2、曲線輸入 多層感知器在模式識別類應用中常被用來識別各種設備輸出的波形曲線,對于這類輸入模式,常用的表示方法是提取波形在各區(qū)間分界點的值,以其作為網(wǎng)絡輸入向量
39、的分量值。各輸入分量的下標表示輸入值在波形中的位置,因此分量的編號是嚴格有序的。3、函數(shù)自變量輸入用多層前饋網(wǎng)建立系統(tǒng)的數(shù)學模型屬于典型的非線性映射問題。一般當系統(tǒng)已有大量輸入輸出數(shù)據(jù)對,建模的目的是提取其中隱含的映射規(guī)則(即函數(shù)關系) 。這類應用的輸入表示比較簡單,一般有幾個影響參數(shù)就設幾個分量,1 個輸入分量對應一個輸入層節(jié)點。4、圖像輸入 當需要對物體的圖像進行識別時,很少直接將每個像素點的灰度值作為網(wǎng)絡的輸入。因為圖像的像素點常以萬計,不適合作為網(wǎng)絡的輸入,而且難以從中提取有價值的輸入輸出規(guī)律。這類應用中,一般先根據(jù)識別的具體目的從圖像中提取一些有用的特征參數(shù),再根據(jù)這些參數(shù)對輸出的貢
40、獻進行篩選。三、輸出量的表示所謂輸出量實際上是指為網(wǎng)絡訓練提供的期望輸出,一個網(wǎng)絡可以有多個輸出變量,其表示方法通常比輸入量容易很多,而且對網(wǎng)絡的精度和訓練時間影響也不大。輸出量可以是數(shù)值變量,也可以是語言變量。對于數(shù)值類的輸出量,可直接用數(shù)值量來表示,但由于網(wǎng)絡實際輸出只能是 01 或-11 之間的數(shù),所以需要將期望輸出進行尺度變換處理,方法見四。下面是幾種語言變量的表示方法。1、 “中取 1”表示法 n分類問題的輸出變量多用語言變量類型,如質量可分為優(yōu)、良、中、差 4 個類別。 “中取 1”是令輸出向量的分量數(shù)等于類別數(shù),輸入樣本被判為哪一類,對應的輸出分量n取 1,其余-1 個分量全取
41、0.例如,用 0001、0010、0100 和 1000 分別表示優(yōu)、良、中、n差 4 個類別。這種方法的優(yōu)點是比較直觀,當分類數(shù)不是太多時經(jīng)常采用。2、 “”表示法 1n“中取 1”表示法中沒有用到編碼全為 0 的情況,如果用個全為 0 的輸出向量n1n表示某個類別,則可以節(jié)省一個輸出節(jié)點。如上面提到的 4 個類別也可以用000、001、010 和 100 表示。特別是當輸出只有兩種可能是,只用一個二進制數(shù)便可以表達清楚。如用 0 和 1 代表性別的男和女等。3、數(shù)值表示法 二值分類只適于表示兩類對立的分類,而對以有些漸進式的分類,可以將語言值轉化為二值之間的數(shù)值表示。例如,質量的差與好可以
42、用 0 和 1 表示,而較差和較好這樣的漸進類別可用 0 和 1 之間的數(shù)值表示,如用 0.25 表示較差,0.5 表示中等,0.75 表示較好等等。數(shù)值的選擇要注意保持由小到大的漸進關系,并要根據(jù)實際意義拉開距離。四、輸入輸出數(shù)據(jù)的預處理 尺度變換也稱歸一化或標準化,是指通過變化處理將網(wǎng)絡的輸入、輸出數(shù)據(jù)限制在0,1或-1,1區(qū)間內。進行尺度變換的主要原因有:(1)網(wǎng)絡的各個輸入數(shù)據(jù)常常具有不同的物理意義和不同的量綱,如某輸入分量在 01范圍內變化,而另一輸入分量510則在 01范圍內變化。尺度變換使所有分量都在 01 或-11 之間變化,從而使網(wǎng)510絡訓練一開始就給各輸入分量以同等重要的
43、地位;(2)bp 網(wǎng)的神經(jīng)元均采用 sigmoid 變換函數(shù),變換后可防止因凈輸入的絕對值過大而使神經(jīng)元輸出飽和,繼而使權值調整進入誤差曲面的平坦區(qū);(3)sigmoid 變換函數(shù)的輸出在 01 或-11 之間,作為教師信號的輸出數(shù)據(jù)如不進行變換處理,勢必使數(shù)值大的輸出分量絕對誤差大,數(shù)值小的輸出分量絕對誤差小,網(wǎng)絡訓練時只針對輸出的總誤差調整權值,其結果是在總誤差中占份額小的輸出分量相對誤差較大,對輸出量進行尺度變換后這個問題可迎刃而解。此外,當輸入或輸出向量的分量量綱不同時,應對不同的分量在其取值范圍內分別進行變換;當各分量物理意義相同且為同一量綱時,應在整個數(shù)據(jù)范圍內確定最大值和最小值,
44、進行統(tǒng)maxxminx一的變化處理。 將輸入輸出數(shù)據(jù)變換為0,1區(qū)間的值常用以下變換式 minmaxminiixxxxx其中,代表輸入或輸出數(shù)據(jù),代表數(shù)據(jù)變化范圍的最小值,代表數(shù)據(jù)變化ixminxmaxx范圍的最大值。五、訓練集的設計 網(wǎng)絡的性能與訓練用的樣本密切相關,設計一個好的訓練樣本集既要注意樣本規(guī)模,又要注意樣本質量。1、訓練樣本數(shù)的確定 一般來說訓練樣本越多,訓練結果越能正確反映其內在規(guī)律,但樣本的收集整理往往受到客觀條件的限制。此外,當樣本數(shù)多到一定程度時,網(wǎng)絡的精度也很難再提高。實踐表明,網(wǎng)絡訓練所需的樣本數(shù)取決于輸入輸出非線性映射關系的復雜程度,映射關系越復雜,樣本中含的噪聲越
45、大,為保證一定映射精度所需要的樣本數(shù)就越多,而且網(wǎng)絡的規(guī)模也越大。因此,可以參考這樣一個經(jīng)驗規(guī)則:訓練樣本數(shù)數(shù)網(wǎng)絡連接權總數(shù)的 510 倍。2、樣本的選擇與組織 網(wǎng)絡訓練中提取的規(guī)律蘊涵在樣本中,因此樣本一定要有代表性。樣本的選擇要注意樣本類別的均衡,盡量使每個類別的樣本數(shù)量大致相等。即使是同一類樣本也要照顧樣本的多樣性與均勻性。按這種“平均主義”原則選擇的樣本能使網(wǎng)絡在訓練時見多識廣,而且可以避免網(wǎng)絡對樣本數(shù)量多的類別“印象深” ,而對出現(xiàn)次數(shù)少的類別“印象淺” 。樣本的組織要注意將不同類別的樣本交叉輸入,或從訓練集中隨機選擇輸入樣本。因為同類樣本太集中會使網(wǎng)絡訓練時傾向于只建立與其匹配的映
46、射關系,當另一類樣本集中輸入時,權值的調整又轉向新的映射關系而將前面的訓練結果否定。當各類樣本輪流集中輸入時,網(wǎng)絡的訓練會出現(xiàn)振蕩使訓練時間延長。3.3.2 初始權值的設計網(wǎng)絡權值的初始化決定了網(wǎng)絡的訓練從誤差曲面的那一點開始,因此初始化方法對縮短網(wǎng)絡的訓練時間至關重要。神經(jīng)元的激活函數(shù)都是關于零點對稱的,如果每個節(jié)點的凈輸入均在零點附近,則其輸出均處在變換函數(shù)的中點。這個位置不僅遠離激勵函數(shù)的兩個飽和區(qū),而且是其變化最靈敏的區(qū)域,必然使網(wǎng)絡的學習速度較快。從凈輸入的表達式(=,為權值,為輸入)可以看出,為了使各節(jié)點的初始凈輸入0njijiinetw xtjw xijwix在零點附近,有兩種辦
47、法可以采用。一種辦法是使初始權值足夠小;另一種辦法是,使初始值為+1 和-1 的權值數(shù)相等。應用中對隱層權值可采用第一種辦法,而對輸出層可采用第二種辦法。因為從隱層權值調整公式來看,如果輸出層權值太小,會使隱層權值在訓練初期的調整量變小,因此采用了第二種權值與凈輸入兼顧的辦法。按以上方法設置的初始權值可使每個神經(jīng)元一開始都工作在其變化最大的位置。3.3.3 bp 多層感知器結構設計網(wǎng)絡的的訓練樣本問題解決以后,網(wǎng)絡的輸入層節(jié)點數(shù)和輸出層節(jié)點數(shù)便已確定。因此,bp 多層感知器的結構設計主要是解決設幾個隱層和每個隱層設幾個隱節(jié)點的問題。對于這個問題,沒有通用性的理論指導,下面是根據(jù)大量實踐經(jīng)驗總結
48、的結論:一、隱層數(shù)的設計 理論分析證明,具有單隱層的 bp 神經(jīng)網(wǎng)絡可以映射所有連續(xù)函數(shù),只有當學習不連續(xù)函數(shù)(如鋸齒波等)時,才需要兩個隱層,所以 bp 多層感知器最多只需要兩個隱層。在設計 bp 多層感知器時,一般先考慮設一個隱層,當一個隱層的隱節(jié)點數(shù)很多仍不能改善網(wǎng)絡性能時,才考慮再增加一個隱層。經(jīng)驗表明,采用兩個隱層時,如在第一個隱層設置較多的隱節(jié)點而第二個隱層設置較少的隱節(jié)點,則有利于改善多層前饋網(wǎng)的性能。此外,對于有些實際問題,采用雙隱層所需要的隱節(jié)點總數(shù)可能少于單隱層所需的隱節(jié)點數(shù)。所以,對于增加隱節(jié)點仍不能明顯降低訓練誤差的情況,應該想到嘗試一下增加隱層。一般都選擇一個隱層的
49、bp 多層感知器。二、隱節(jié)點數(shù)的設計隱含層節(jié)點的作用是從樣本中提取并存儲其內在的規(guī)律,每個隱節(jié)點有若干個權值,而每個權值都是增強網(wǎng)絡映射能力的一個參數(shù)。隱含節(jié)點數(shù)量太少,網(wǎng)絡從樣本中獲取的信息能力就差,不足以概括和體現(xiàn)訓練樣本的規(guī)律;隱含節(jié)點數(shù)量太多,有可能把樣本中的非規(guī)律性的內容如噪聲等也學會記牢,從而出現(xiàn)所謂“過度吻合”問題,反而降低了泛化能力,此外隱節(jié)點數(shù)太多還會增加訓練時間。設置多少個隱節(jié)點取決于訓練樣本數(shù)的多少、樣本噪聲的大小以及樣本中蘊涵規(guī)律的復雜程度。一般來說,波動次數(shù)多、幅度變化大的復雜非線性函數(shù)要求網(wǎng)絡具有較多的隱節(jié)點來增強其映射能力。確定最佳隱含節(jié)點的一個常用的方法為試湊法
50、,可先設置較少的隱節(jié)點訓練網(wǎng)絡,然后逐漸增加隱節(jié)點數(shù),用同一樣本集進行訓練,從中確定網(wǎng)絡誤差最小時對應的隱節(jié)點數(shù)。在用試湊法時,可以用一些確定隱節(jié)點數(shù)的經(jīng)驗公式。這些公式計算出來的隱節(jié)點數(shù)只是一種粗略的估計值,可作為試湊法的初始值。以下是幾個常用計算初始值的公式: mnl 2logmn mnl以上各式中為隱層節(jié)點數(shù),為輸入層節(jié)點數(shù), 為輸出層節(jié)點數(shù),為 110 之mnl間的常數(shù)。3.3.4 網(wǎng)絡訓練與測試 網(wǎng)絡設計完成后,需要進行網(wǎng)絡的訓練。在訓練過程中要多次重復使用樣本集數(shù)據(jù),但每次訓練取數(shù)據(jù)的順序是不固定的。通常情況下,訓練一個網(wǎng)絡需要成千上萬次迭代過程。泛化能力是衡量網(wǎng)絡性能好壞的一個重
51、要參數(shù)3236。如果對神經(jīng)網(wǎng)絡進行的訓練次數(shù)過多,不僅增加訓練時間,也會產生過學習或過擬合35,影響網(wǎng)絡的泛化性能。網(wǎng)絡的測試誤差和訓練誤差曲線如圖 3.3 所示。圖 3-3-4 測試誤差和訓練誤差相對學習次數(shù)的變化曲線從圖中可以看出,隨著訓練循環(huán)次數(shù)的增加,起初測試誤差與訓練誤差以較大的速率同步減小,然后誤差減小的速率逐漸減小,且測試誤差減小的速率減小得更快,到達最低點后,盡管訓練誤差繼續(xù)減小,測試誤差開始逐步增加,出現(xiàn)過學習。 均 方 誤差 測試誤差差據(jù) 訓練誤差 訓練次數(shù)第四章 三角形隸屬度函數(shù)在鋁稱重的應用4.1 隸屬函數(shù)隸屬函數(shù)12的確定實質上是人們對客觀事物中介過渡的定性描述,這種
52、描述本質上是客觀的。由于模糊理論研究的對象具有“模糊性”和“經(jīng)驗性” ,每個人對同一模糊概念的認識和理解存在差異,因此,隸屬函數(shù)的確定又含有一定的主觀因素。 盡管確定隸屬函數(shù)的方法帶有主觀因素,但主觀的反映和客觀的存在是有一定聯(lián)系的,是受到客觀制約的。因此,隸屬函數(shù)的確定應遵守一些基本原則。一、表示隸屬函數(shù)的模糊集合必須是凸模糊集合以主觀性最強的專家經(jīng)驗法為例來確定“舒適”溫度的隸屬函數(shù)。某專家根據(jù)本身的經(jīng)驗對“舒適“溫度的隸屬函數(shù)定義如下: 舒適溫度=00.50.501010203040ccccc這里隸屬度為 1 的溫度點定的是,即在左右是“舒適”的溫度,越是偏20 c20 c離這個溫度,其
53、隸屬越小,即舒適的程度越小,這與大多數(shù)人的經(jīng)驗是吻合的。至于的隸屬度是 0.5 而不是 0.45,也許只能說是經(jīng)驗。但是,這種經(jīng)驗并不意味著可以30 c任意確定,因為可以稱得上專家的經(jīng)驗,那肯定不是一種具有任意性的經(jīng)驗,通常都是指具有相當成功把握和代表性的經(jīng)驗。通常,某一模糊概念的隸屬函數(shù)的確定應首先從最適合這一模糊概念的點下手,也即確定該模糊概念的最大隸屬函數(shù)中心點或區(qū)域,然后向兩邊延伸。從連接各點后經(jīng)過平滑處理的隸屬函數(shù)曲線從最大隸屬函數(shù)中心點出發(fā)向兩邊延伸時,其隸屬函數(shù)的值必定是單調遞減的,而不允許有波浪形,否則會產生明顯不合邏輯的狀態(tài)。二、變量所取隸屬函數(shù)通常是對稱和平衡的一般情況下,
54、描述變量的語言值安排得越多,模糊控制系統(tǒng)的分辨率就越高,其系統(tǒng)響應的結果就越平滑;但模糊規(guī)則會明顯增多,計算時間增加,設計困難加大。如果描述變量的語言值安排太少,則其系統(tǒng)的響應可能會太不敏感,并可能無法及時提供輸出控制跟隨小的輸入變化,以使系統(tǒng)的輸出會在期望值附近振蕩。實踐證明,一般取 3-9 個為宜,并且通常取奇數(shù)個,在“零” 、 “適中”或者“正常”集合的兩邊語言值通常對稱取。三、隸屬函數(shù)要符合人們的語義順序,避免不恰當?shù)闹丿B在相同論域上使用的具有語義順序關系的若干語言值的模糊集合,例如, “冷” 、 “涼” 、“適合” 、 “暖” 、 “熱”等模糊子集,其中心值位置必須按這一次序排列,不
55、能違背常識和經(jīng)驗。此外,隸屬函數(shù)由中心值向兩邊模糊延伸的范圍也有一定的限制,間隔的兩個模糊集合的隸屬函數(shù)盡量不相交重疊。4.1.1 常用隸屬函數(shù)的圖形基本的隸屬函數(shù)圖形可分為三類:左大右小的偏小型下降函數(shù)(稱作函數(shù)) 、對稱z型凸函數(shù)(稱作函數(shù))和右大左小的偏大形上升函數(shù)(稱作函數(shù)) ,如圖 4-1 所示。s 012468100124681001246810 (a) (b) (c)圖 4-1 基本隸屬函數(shù)圖形 最簡單的隸屬函數(shù)還是取直線型的三角和梯形,因而被常常使用。如圖 4-2所示。 0124681001246810 (a)三角函數(shù) (b)梯形函數(shù)圖 4-2 直線型隸屬函數(shù)4.2 模糊神經(jīng)網(wǎng)
56、絡的結構模型該模型是多輸入單輸出,由 4 層組成:第一層輸入層;第二層模糊化層;第三層隱含層;第四層輸出層。第五章 模糊神經(jīng)網(wǎng)絡用于鋁稱重的步驟5.1 特征提取和模糊化鋁車間工作的溫度通常情況下要在 0 攝氏度以上,所以低溫零下的溫度不太可能出現(xiàn),同時考慮到常溫、低溫數(shù)據(jù)集中區(qū)間較為分明,所以下面進行數(shù)據(jù)處理的時候,將分為常溫、高溫兩個網(wǎng)絡來進行處理。常溫情況下提取的 12 個特征參數(shù),其中 6 個是溫度參數(shù),另外 6 個是相對應的內碼,經(jīng)模糊化處理后,每個參數(shù)分為 3 個模糊子空間,用大(l) 、中(m) 、小(s)3 個語言變量表示,則一個輸入變量就有 3 個模糊化神經(jīng)元與其在 3 個模糊
57、子空間對應的隸屬度函數(shù)值對應。則模糊化后的變量為 36 個,即 bp 神經(jīng)網(wǎng)絡的輸入變量為 36 個。5.2 隸屬函數(shù)選取 常用的確定隸屬函數(shù)的方法有:模糊統(tǒng)計法、例證法、專家經(jīng)驗法。而主要方法是根據(jù)專家的實際經(jīng)驗,再通過“學習”和實踐檢驗逐步修改和完善。在本課題的隸屬度函數(shù)采用三角形分布函數(shù),它是經(jīng)過檢驗修改與完善后,在實際問題中應用最廣泛的隸屬度函數(shù)。 圖 5-2 三角形分布隸屬函數(shù)如圖所示其中= l2()0ppl2()2()pplppl(1) = h2()php(2)、分別表示參數(shù)極小值,模糊均值()及極大值。則隸lph2最大值最小值屬函數(shù)為: 0()2()21lhxhl小22lhxlh
58、lxxl3() (4)0()()2()()20 xlhlhxhl中()2()2xllhlxlhxhxh (5)0()2()21lhxhl大()2()2lhxlhxhxh5.3 隱含層和輸出層的處理隱含層的作用是從樣本中提取并存儲內在的規(guī)律。隱含層節(jié)點過多,會產生過擬合,降低泛化能力;隱層節(jié)點過少,網(wǎng)絡從樣本中獲取信息的能力差,不足以概括和體現(xiàn)樣本的規(guī)律。依據(jù)參考文獻6,一層隱層已夠用。輸出層為單節(jié)點輸出,輸出噸數(shù)從 0 噸11 噸,取整噸數(shù),現(xiàn)在將輸出同時縮小 10倍,則對應輸出依次為 0 噸,0.1 噸,0.2 噸,0.3 噸,0.4 噸,0.5 噸,0.6 噸,0.7 噸,0.8噸,0.9
59、 噸,1.0 噸,1.1 噸。4、學習率在梯度下降算法中,學習率是網(wǎng)絡可變的,應用實例表明:可取 10-3-10 之間的任意數(shù)46。一般情況下,當訓練到誤差曲面的平坦區(qū)域時,應增大,加快其收斂速度;當訓練到誤差曲面的劇烈變化區(qū)域時,為防止誤差增加,應減小。5、三角形隸屬度函數(shù)模糊神經(jīng)網(wǎng)絡隱層節(jié)點數(shù)的確定三角形型隸屬度函數(shù)模糊神經(jīng)網(wǎng)絡模型分為 4 層,分別為輸入層、模糊化層、隱含層和輸出層。輸入層節(jié)點數(shù)為 12,對應稱重時的 12 個特征數(shù)據(jù),輸出層節(jié)點數(shù)為 1,對應稱重的輸出。根據(jù)確定隱含節(jié)點數(shù)的經(jīng)驗公式(其中為隱層節(jié)點數(shù),1nnma1n為輸出層節(jié)點數(shù),為輸入層節(jié)點數(shù),為1,10之間的常數(shù))
60、,確定。大致范圍為mna1n1n817() 。對同一樣本,采用逐漸增加節(jié)點數(shù)的方法,對這 1052 1(110)8 17 個數(shù)進行數(shù)值實驗,以測試集誤差最小作終止網(wǎng)絡訓練和確定最佳隱節(jié)點數(shù)的準則。輸入層采用線性激活函數(shù),隱含層和輸出層的激活函數(shù)為對數(shù)性 sigmoidal 函數(shù)。表 5-3-1 三角形隸屬度函數(shù)模糊神經(jīng)網(wǎng)絡測試誤差隱層節(jié)點數(shù)101112131415網(wǎng)絡誤差0.91570.72710.13980.21050.28500.2245由表 5-3-1 可以看出,隱含層節(jié)點數(shù)為 12 時,網(wǎng)絡測試誤差最小,網(wǎng)絡的性能最好。此時三角形型隸屬度函數(shù)模糊神經(jīng)網(wǎng)絡網(wǎng)絡的收斂圖如下:圖 5-3-1
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 溫病學診斷要點
- 湘西鳳凰縣人民檢察院選調真題
- 無人倉儲系統(tǒng)的優(yōu)化策略
- 濰坊市文職輔警招聘考試真題
- 廣播媒體融合創(chuàng)新:2025年媒體融合與產業(yè)變革研究報告
- 個性化培訓路勁的教育技術探索與實踐
- 教育創(chuàng)新為未來鋪設學習之路
- 騙子套路多但學生自有防護高招
- 探索學習環(huán)境在隱性與顯性技能發(fā)展中的作用
- 創(chuàng)造積極學習氛圍激發(fā)學生學習動機
- 2013免疫吸附治療知情同意書
- GIS安裝施工工藝
- 2023年司法鑒定程序通則
- 2023屆大連市瓦房店市數(shù)學四下期末質量檢測試題含解析
- 保安員在崗培訓法律
- 期貨市場行情及技術分析課件
- 安徽寶鎂輕合金有限公司年產30萬噸高性能鎂基輕合金項目環(huán)境影響報告書
- 高爾夫各品牌草坪機械性能對比
- 高考英語真題科技說明文閱讀理解精選訓練含答案
- 2016-2022年全國高考英語讀后續(xù)寫及概要寫作試題真題及范文
- 2023年中工國際工程股份有限公司招聘筆試題庫及答案解析
評論
0/150
提交評論