神經(jīng)網(wǎng)絡(luò)課件_第1頁(yè)
神經(jīng)網(wǎng)絡(luò)課件_第2頁(yè)
神經(jīng)網(wǎng)絡(luò)課件_第3頁(yè)
神經(jīng)網(wǎng)絡(luò)課件_第4頁(yè)
神經(jīng)網(wǎng)絡(luò)課件_第5頁(yè)
已閱讀5頁(yè),還剩27頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

BP神經(jīng)網(wǎng)絡(luò)的講解BP神經(jīng)網(wǎng)絡(luò)1986年Rumelhart等提出了多層前饋網(wǎng)絡(luò)誤差反向傳播(ErrorBackPropa—gation,簡(jiǎn)稱(chēng)BP)算法,通過(guò)數(shù)學(xué)上的詳細(xì)分析和完整的推導(dǎo),系統(tǒng)地解決了多層神經(jīng)元網(wǎng)絡(luò)中隱層單元連續(xù)權(quán)的學(xué)習(xí)問(wèn)題,從而用BP算法克服了簡(jiǎn)單感知器不能解決的XOR和其他一些問(wèn)題。因?yàn)槎鄬忧梆伨W(wǎng)絡(luò)的訓(xùn)練經(jīng)常采用誤差反向傳播算法,所以通常人們都將多層前饋網(wǎng)絡(luò)直接稱(chēng)為BP網(wǎng)絡(luò)。由于BP算法得到廣泛的使用,BP模型已成為神經(jīng)網(wǎng)絡(luò)的重要模式之一。

BP網(wǎng)絡(luò)學(xué)習(xí)方法的基本思想是將訓(xùn)練過(guò)程分為兩個(gè)階段,第一階段正向傳播,輸入信息從輸入層經(jīng)隱含層單元處理后傳向輸出層,每一層神經(jīng)元的狀態(tài)只影響下一層神經(jīng)元狀態(tài)。倘若在輸出層得不到希望的輸出,則轉(zhuǎn)入第二階段反向傳播,將誤差信號(hào)沿原來(lái)的神經(jīng)元連接通路返回。通過(guò)修改各層神經(jīng)元的權(quán)值,逐次地向輸入層傳播進(jìn)行計(jì)算。這樣,反復(fù)地運(yùn)用這兩個(gè)過(guò)程,使得誤差信號(hào)最小,最后使得信號(hào)誤差達(dá)到允許的范圍之內(nèi),網(wǎng)絡(luò)就結(jié)束學(xué)習(xí)訓(xùn)練過(guò)程。BP網(wǎng)絡(luò)主要用于:1)函數(shù)逼近:用輸入矢量和相應(yīng)的輸出矢量訓(xùn)練一個(gè)網(wǎng)絡(luò)逼近一個(gè)函數(shù);2)模式識(shí)別:用一個(gè)特定的輸出矢量將它與輸入矢量聯(lián)系起來(lái);3)分類(lèi):把輸人矢量以所定義的合適方式進(jìn)行分類(lèi);4)數(shù)據(jù)壓縮:減少輸出矢量維數(shù)以便于傳輸或存貯.1)多層網(wǎng)絡(luò)結(jié)構(gòu)多層BP網(wǎng)絡(luò)不僅有輸入節(jié)點(diǎn)、輸出節(jié)點(diǎn),而且有一層或多層隱節(jié)點(diǎn),如下圖:1、BP網(wǎng)絡(luò)結(jié)構(gòu)2)傳遞函數(shù)一般為(0,1)S型函數(shù):3)誤差函數(shù)對(duì)第P個(gè)樣本誤差計(jì)算公式為:式中tpi,opi分別為期望和網(wǎng)絡(luò)的計(jì)算輸出2、BP網(wǎng)絡(luò)學(xué)習(xí)公式網(wǎng)絡(luò)學(xué)習(xí)公式推導(dǎo)的指導(dǎo)思想是,對(duì)網(wǎng)絡(luò)權(quán)值(ωij,Tli)的修正與閾值(θ)的修正,使誤差函數(shù)(E)沿負(fù)梯度方向下降。BP網(wǎng)絡(luò)三層節(jié)點(diǎn)表示為,輸入節(jié)點(diǎn):xj,隱節(jié)點(diǎn):yi,輸出節(jié)點(diǎn):ol輸入節(jié)點(diǎn)與隱節(jié)點(diǎn)間的網(wǎng)絡(luò)權(quán)值為ωij,隱節(jié)點(diǎn)與輸出節(jié)點(diǎn)間的網(wǎng)絡(luò)權(quán)值為T(mén)li。當(dāng)輸出節(jié)點(diǎn)的期望輸出為tl時(shí),BP模型的計(jì)算公式如下:(1)輸出節(jié)點(diǎn)的輸出計(jì)算公式1)隱節(jié)點(diǎn)的輸出:其中2)輸出節(jié)點(diǎn)的計(jì)算輸出:其中3)輸出節(jié)點(diǎn)的誤差公式:(2)輸出層(隱節(jié)點(diǎn)到輸出節(jié)點(diǎn)間)的修正公式1)誤差控制

所有樣本誤差:其中p為樣本數(shù),n為輸出節(jié)點(diǎn)數(shù)2)誤差公式:3)權(quán)修正值:其中k為迭代次數(shù)4)閥值修正:(3)隱節(jié)點(diǎn)層(輸入節(jié)點(diǎn)到隱節(jié)點(diǎn)間)的修正公式1)誤差控制2)權(quán)值修正3)閥值修正3、MATLAB神經(jīng)網(wǎng)絡(luò)工具箱中的BP網(wǎng)絡(luò)(1)BP網(wǎng)絡(luò)中的神經(jīng)元模型下圖給出了一個(gè)基本的神經(jīng)元模型,它具有R個(gè)輸入,每個(gè)輸入都通過(guò)一個(gè)適當(dāng)?shù)臋?quán)值

與神經(jīng)元相連,神經(jīng)元的輸出可表示成BP網(wǎng)絡(luò)中基本神經(jīng)元的激活函數(shù)必須處處可微,所以,經(jīng)常使用的是S型的對(duì)數(shù)或正切激活函數(shù)或線性函數(shù)。(2)BP網(wǎng)絡(luò)結(jié)構(gòu)典型的BP網(wǎng)絡(luò)結(jié)構(gòu)如下圖。BP網(wǎng)絡(luò)通常有一個(gè)或多個(gè)隱層,隱層中的神經(jīng)元均采用S型變換函數(shù),輸出層的神經(jīng)元采用純線性變換函數(shù)。(2)MATLAB中有關(guān)BP網(wǎng)絡(luò)的重要函數(shù)1)神經(jīng)元上的傳遞函數(shù)①purelin利用Widrow—Hoff或BP算法訓(xùn)練的神經(jīng)元的傳遞函數(shù)經(jīng)常采用線性函數(shù)。神經(jīng)元可采用的最簡(jiǎn)單的函數(shù),即線性函數(shù),它只是簡(jiǎn)單地將神經(jīng)元輸入經(jīng)閾值調(diào)整后傳遞到輸出。

purelin(n)函數(shù)可得到輸入矢量為n時(shí)網(wǎng)絡(luò)層輸出矩陣。

purelin(z,b)函數(shù)可用于成批處理矢量,并且提供閾值的情況。這時(shí)閾值矢量b與加權(quán)輸入距陣z是區(qū)分的。閾值矢量b加到z的每個(gè)矢量中去,以形成網(wǎng)絡(luò)的輸人矩陣,調(diào)用后得到的結(jié)果為矩陣。

purelin(p)函數(shù)中,P指出傳遞函數(shù)特性的名稱(chēng),調(diào)用后可得到所詢(xún)問(wèn)的特性,即:

purelin(’delta‘)指出delta函數(shù)名稱(chēng)。

purelin(‘init’)指出標(biāo)準(zhǔn)初始化函數(shù)名稱(chēng)。

purelin(‘name‘)指出傳遞函數(shù)的全稱(chēng)。

purelin(‘output‘)指出包含傳遞函數(shù)最大和最小輸出值的二元矢量。

②Tansig雙曲正切S型(sigmoid)傳遞函數(shù)。雙曲正切sigmoid函數(shù)用于將神經(jīng)元的輸入范圍為(一∞,+∞)映射到(一1,+1)。正切sigmoid函數(shù)是可微函數(shù),因此很適合于利用BP算法訓(xùn)練神經(jīng)網(wǎng)絡(luò)。函數(shù)表達(dá)式為:tansig(n)=tanh(n)tansig(n)函數(shù)對(duì)網(wǎng)絡(luò)輸入矢量n的所有元素求正切sigmoid函數(shù)

tansig(z,b)函數(shù)用于成批處理矢量,并且提供閾值的情況,這時(shí)閾值b與加權(quán)輸入矩陣z是區(qū)分的,閾值矢量b加到z的每個(gè)矢量中去,以形成網(wǎng)絡(luò)的輸入矩陣,然后利用正切sigmoid函數(shù)將網(wǎng)絡(luò)輸入轉(zhuǎn)換成輸出

tansig(p)函數(shù)中,P指出傳遞函數(shù)特性的名稱(chēng),調(diào)用后可得到所詢(xún)問(wèn)的特性,即

tansig(‘delta‘)指出delta函數(shù)名稱(chēng)

tansig(‘init‘)指出標(biāo)準(zhǔn)初始化函數(shù)名稱(chēng)

tansig(’name‘)指出傳遞函數(shù)的全稱(chēng)

tansig(‘output‘)指出包含傳遞函數(shù)最大和最小輸出值的二元矢量

③logsig對(duì)數(shù)S型(sigmoid)傳遞函數(shù)。對(duì)數(shù)sigmoid函數(shù)用于將神經(jīng)元的輸入范圍(一∞,+∞)映射到(0,+1)的區(qū)間上,對(duì)數(shù)sigmoid函數(shù)是可微函數(shù),因此很適合于利用BP算法訓(xùn)練神經(jīng)網(wǎng)絡(luò)。函數(shù)表達(dá)式為:

logsig(n)函數(shù)對(duì)網(wǎng)絡(luò)輸入陣n的所有元素求對(duì)數(shù)logmoid函數(shù).

logsig(z,b)函數(shù)用于成批處理矢量,并且提供閾值的情況,這時(shí)閾值b與加權(quán)輸入矩陣Z是區(qū)分的,閾值矢量b加到Z的每個(gè)矢量中去,以形成網(wǎng)絡(luò)的輸入矩陣,然后利用對(duì)數(shù)sigmoid函數(shù)將網(wǎng)絡(luò)輸入轉(zhuǎn)換成輸出.

logsig(p)函數(shù)中,P指出傳遞函數(shù)特性的名稱(chēng),調(diào)用后可得到所詢(xún)問(wèn)的特性,即

logsig(’delta‘)指出delta函數(shù)名稱(chēng).

logsig(‘init‘)指出標(biāo)準(zhǔn)初始化函數(shù)名稱(chēng).

logsig(‘name‘)指出傳遞函數(shù)的名稱(chēng).

logsig(‘output‘)指出包含傳遞函數(shù)最大和最小輸出值的二元矢量.

2)δ(Delta)函數(shù)①deltalin純線性(purelin)神經(jīng)元的δ函數(shù)。通常的反向傳播算法(BP)是利用網(wǎng)絡(luò)誤差平方和對(duì)網(wǎng)絡(luò)各層輸入的導(dǎo)數(shù)來(lái)調(diào)整其權(quán)值和閾值,從而降低誤差平方和。從網(wǎng)絡(luò)誤差矢量中可推導(dǎo)出輸出層的誤差導(dǎo)數(shù)或δ(delta)矢量,隱層的δ矢量可由下一層的δ矢量導(dǎo)出,這種δ矢量的反向傳播正是BP算法的由來(lái).

deltalin(a)可計(jì)算出這一層輸出對(duì)本層輸出的導(dǎo)數(shù),參數(shù)矩陣a為純線性層的輸出矢量.

deltalin(a,e)可計(jì)算出線性輸出層的誤差導(dǎo)數(shù),參數(shù)矩陣a和e分別為該層的輸出矢量和誤差.

deltalin(a,d2,w2)可計(jì)算出線性隱層的誤差導(dǎo)數(shù),參數(shù)矩陣a為純線性層的輸出矢量,d2為下一層的δ矢量,w2為與下一層的連接權(quán)值.②deltalog對(duì)數(shù)S型(logsig)神經(jīng)元的δ函數(shù)。deltalog(a)可計(jì)算出這一層輸出對(duì)本層輸出的導(dǎo)數(shù),參數(shù)矩陣a為對(duì)數(shù)S型層的輸出矢量.

deltalog(a,e)可計(jì)算出logsig輸出層的誤差導(dǎo)數(shù),參數(shù)矩陣a和e分別為該層的輸出矢量和誤差.

dehalog(a,d2,w2)可計(jì)算出logsig隱層的誤差導(dǎo)數(shù),參數(shù)矩陣a為對(duì)數(shù)s型層的輸出矢量,d2為下一層的δ矢量,w2為與下一層的連接權(quán)值.③deltatan正切S型(tansig)神經(jīng)元的δ函數(shù).deltatan(a)可計(jì)算出這一層輸出對(duì)本層輸出的導(dǎo)數(shù),參數(shù)矩陣a為正切S型層的輸出矢量.

dehatan(a,e)可計(jì)算出tansig輸出層的誤差導(dǎo)數(shù),參數(shù)矩陣a和e分別為該層的輸出矢量和誤差.

deltatan(a,d2,w2)可計(jì)算出tansig隱層的誤差導(dǎo)數(shù),參數(shù)矩陣a為正切S型層的輸出矢量,d2為下一層的δ矢量,w2為與下一層的連接權(quán)值.3)基本函數(shù)①initff前向網(wǎng)絡(luò)初始化.語(yǔ)法格式:[w,b]=initff(p,S,f)[w1,b1,w2,b2]=initff(p,s1,f1,S2,f2)[w1,b1,w2,b2,w3,b3]=initff(p,S1,f1,S2,f2,S3,f3)[w,b]=initff(p,S,t)[w1,b1,w2,b2]=initff(p,S1,f1,S2,t2)[w1,b1,w2,b2,w3,b33=initff(p,S1,f1,S2,f2,S3,t3)initff(p,S,f)可得到S個(gè)神經(jīng)元的單層神經(jīng)網(wǎng)絡(luò)的權(quán)值和閾值,其中P為輸入矢量,f為神經(jīng)網(wǎng)絡(luò)層間神經(jīng)元的傳遞函數(shù)。值得注意:P中的每一行中必須包含網(wǎng)絡(luò)期望輸入的最大值和最小值,這樣才能合理地初始化權(quán)值和閾值.

initff可對(duì)至多三層神經(jīng)網(wǎng)絡(luò)進(jìn)行初始化,可得到每層的權(quán)值及閾值.此外,initff也可用目標(biāo)矢量t代替網(wǎng)絡(luò)輸出層的神經(jīng)元數(shù),這時(shí)輸出層的神經(jīng)元數(shù)目就為t的行數(shù).②simuff前向網(wǎng)絡(luò)仿真.語(yǔ)法格式:simuff(p,w1,b1,f1)simuff(p,w1,b1,f1,w2,b2,f2)simuff(p,w1,b1,f1,w2,b2,f2,w3,b3,f3)前向網(wǎng)絡(luò)由一系列網(wǎng)絡(luò)層組成,每一層都從前一層得到輸入數(shù)據(jù),simuff函數(shù)可仿真至多三層的前向網(wǎng)絡(luò).③trainbp利用BP算法訓(xùn)練前向網(wǎng)絡(luò).語(yǔ)法格式:[w,b,te,tr]=trainbp(w,b,’f’,P,t,tp)[w1,b1,w2,b2,te,tr]=trainbp(w1,b1,’f1‘,w2,b2,’f2‘,P,t,tp)[w1,b1,w2,b2,w3,b3,te,tr]=

trainbp(w1,b1,‘f1’,w2,b2,‘f2’,w3,b3,‘f3’,P,t,tp)利用BP算法訓(xùn)練前向網(wǎng)絡(luò),使網(wǎng)絡(luò)完成函數(shù)逼近、矢量分類(lèi)及模式識(shí)別。[w,b,te,tr]=trainbp(w,b,’f‘,P,t,tp)利用單層神經(jīng)元連接的權(quán)值矩陣w,閾值矢量b及傳遞函數(shù)f成批訓(xùn)練網(wǎng)絡(luò),使當(dāng)輸入矢量為P時(shí),網(wǎng)絡(luò)的輸出為目標(biāo)矢量矩陣t.tp為可選訓(xùn)練參數(shù),其作用是設(shè)定如何進(jìn)行訓(xùn)練,具體如下:

tp(1)顯示間隔次數(shù),其缺省值為25;

tp(2)最大循環(huán)次數(shù),其缺省值為100;

tp(3)目標(biāo)誤差,其缺省值為0.02;

tp(4)學(xué)習(xí)速率,其缺省值為0.01.值得注意,當(dāng)指定了tp參數(shù)時(shí),任何缺省或NaN值都會(huì)自動(dòng)取其缺省值.一旦訓(xùn)練達(dá)到了最大的訓(xùn)練次數(shù),或者網(wǎng)絡(luò)誤差平方和降到期望誤差之下時(shí),都會(huì)使網(wǎng)絡(luò)停止學(xué)習(xí)。學(xué)習(xí)速率會(huì)影響權(quán)值與閾值更新的比例,較小的學(xué)習(xí)速率會(huì)導(dǎo)致學(xué)習(xí)時(shí)間增長(zhǎng),但有時(shí)可避免訓(xùn)練過(guò)程發(fā)散.調(diào)用trainbp函數(shù)可得到新的權(quán)值矩陣w、閾值矢量b、網(wǎng)絡(luò)訓(xùn)練的實(shí)際訓(xùn)練次數(shù)te及網(wǎng)絡(luò)訓(xùn)練誤差平方和的行矢量tr.對(duì)于多層網(wǎng)絡(luò),在調(diào)用trainbp函數(shù)時(shí),可得到各層的權(quán)值矩陣及各層的閾值矢量.4)學(xué)習(xí)規(guī)則函數(shù)①learnbp反向傳播學(xué)習(xí)規(guī)則函數(shù)語(yǔ)法格式:learnbp(p,d,lr)[dw,db]=learnbp(p,d,lr)反向傳播(BP)學(xué)習(xí)規(guī)則為調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值使網(wǎng)絡(luò)誤差的平方和最小,這是通過(guò)在最速下降方向上不斷地調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值來(lái)達(dá)到的.首先計(jì)算出網(wǎng)絡(luò)輸出層的誤差矢量的導(dǎo)數(shù),然后通過(guò)網(wǎng)絡(luò)反向傳播,直到計(jì)算出每個(gè)隱層的誤差導(dǎo)數(shù)(稱(chēng)為δ矢量),這可利用函數(shù)deltalin,deltalog和deltatan來(lái)計(jì)算.根據(jù)BP準(zhǔn)則,每一層的權(quán)值矩陣ω利用本層的δ矢量d和輸入矢量P來(lái)更新△ω(i,j)=lr*d(i)*p(j)其中l(wèi)r為學(xué)習(xí)速率.調(diào)用learnhp(p,d,lr)后,可得到權(quán)值修正矩陣,其中P為本層的輸入矢量,d為δ矢量,lr為學(xué)習(xí)速率.

[dw,db]=learnbp(p,d,lr)可同時(shí)得到權(quán)值修正矩陣和閾值修正矢量.②learnbpm利用動(dòng)量規(guī)則的改進(jìn)BP算法語(yǔ)法格式:learnbpm(p,d,lr,mc,dw,db)[dw,db]一learnbpm(p,d,lr,mc,dw,db)使權(quán)值的變化等于上次權(quán)值的變化與這次由BP準(zhǔn)則引起的變化之和,這樣可將動(dòng)量加到BP學(xué)習(xí)中,上一次權(quán)值變化的影響可由動(dòng)量常數(shù)來(lái)調(diào)節(jié)。當(dāng)動(dòng)量常數(shù)為0時(shí),說(shuō)明權(quán)值的變化僅由梯度決定。當(dāng)動(dòng)量常數(shù)為1時(shí),說(shuō)明新的權(quán)值的變化僅等于上次權(quán)值變化,而忽略掉梯度項(xiàng),其數(shù)學(xué)表達(dá)式為:△ω(i,j)=mc*△ω(i,j)+(1-mc)*lr*d(i)*p(j)其中mc為動(dòng)量常數(shù).調(diào)用learnbpm(p,d,lr,mc,dw,db)后,可得到新權(quán)值修正矩陣,其中P為網(wǎng)絡(luò)層的輸入矢量,d為δ矢量,lr為學(xué)習(xí)速率,mc為動(dòng)量常數(shù),dw為上一次權(quán)值變化矩陣.

[dw,db]=learnbpm(p,d,lr,mc,dw,db)可同時(shí)得到新權(quán)值修正矩陣和新閾值修正矢量.5)繪圖函數(shù)①plotes繪制誤差曲面圖語(yǔ)法格式:plotes(wv,bv,es)plotes(wv,by,es,v)plotes(wv,bv,es)繪制出由權(quán)值wv和閾值bv確定的誤差曲面圖es(由errsurf產(chǎn)生),誤差曲面圖以三維曲面和等高線圖形式顯示.

plotes(wv,bv,es,v)允許設(shè)置期望的視角v,缺省值為[-37.530].②plotep在誤差曲面上繪制出權(quán)值和閾值的位置語(yǔ)法格式:plotep(w,b,e)plotep(w,b,e,h)plotep(w,b,e)在由plotes繪制的誤差曲面圖上,繪制出單輸入神經(jīng)元誤差為e時(shí)的權(quán)值w和閾值b的位置.當(dāng)帶輸出變量調(diào)用時(shí),plotep函數(shù)可返回包含有關(guān)位置信息的矢量h.plotep(w,b,e,h)可利用h清除網(wǎng)絡(luò)前一次位置,并重新畫(huà)出新的神經(jīng)元位置.6)誤差分析函數(shù)errsurf計(jì)算誤差曲面語(yǔ)法格式:errsurf(p,t,wv,bv,f)errsurf(p,t,wv,by,f)可計(jì)算單輸入神經(jīng)元誤差曲面的平方和。輸人為輸入行矢量P,相應(yīng)的目標(biāo)t和傳遞函數(shù)名f。誤差曲面是從每個(gè)權(quán)值與由權(quán)值wv,閾值bv的行矢量確定的閾值的組合中計(jì)算出來(lái)的.4、實(shí)例分析1)問(wèn)題的描述

公路運(yùn)量主要包括公路的客運(yùn)量和公路貨運(yùn)量?jī)蓚€(gè)方面。據(jù)研究,某地區(qū)的公路運(yùn)量主要與該地區(qū)的人數(shù)、機(jī)動(dòng)車(chē)數(shù)量和公路面積有關(guān),表1給出了20年得公路運(yùn)量相關(guān)數(shù)據(jù),表中人數(shù)和公路客運(yùn)量的單位為萬(wàn)人,機(jī)動(dòng)車(chē)數(shù)量單位為萬(wàn)兩,公路面積的單位為萬(wàn)平方千米,公路貨運(yùn)量單位為萬(wàn)噸。

根據(jù)有關(guān)部門(mén)數(shù)據(jù),該地區(qū)2010年和2011年的人數(shù)分別為73.39和75.55萬(wàn)人,機(jī)動(dòng)車(chē)數(shù)量分別為3.9635和4.0975萬(wàn)輛,公路面積將分別為0.9880和1.0268萬(wàn)平方米。請(qǐng)利用BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)該地區(qū)2010年2011年得公路客運(yùn)量和公路貨運(yùn)量。某地區(qū)20年公路運(yùn)量數(shù)據(jù)年份人口數(shù)量機(jī)動(dòng)車(chē)數(shù)量公路面積公路客運(yùn)量公路貨運(yùn)量20.550.60.095126123722.440.750.116217137925.370.850.117730138527.130.900.149145139929.451.050.2010460166330.11.350.2311387171430.961.450.2312353183434.061.600.3215750432236.421.700.3218304813238.091.850.3419836893639.132.150.362102411099200139.992.200.361949011203200241.932.250.382043310524200344.592.350.492259811115年份人口數(shù)量機(jī)動(dòng)車(chē)數(shù)量公路面積公路客運(yùn)量公路貨運(yùn)量47.302.500.56251071332052.892.600.59334421676255.732.700.59368361867356.762.850.67405482072459.172.950.694292720803200960.633.100.7943462218042)BP網(wǎng)絡(luò)求解過(guò)程(具體程序如下)clc%輸入原始數(shù)據(jù)%人口數(shù)量(萬(wàn)人)a=[20.5522.4425.3727.1329.4530.1030.9634.0635.4238.0939.1339.9941.9344.5947.3052.8955.7356.7659.1760.63];%機(jī)動(dòng)車(chē)輛數(shù)(萬(wàn)輛)b=[0.60.750.850.91.051.351.451.61.71.852.152.22.252.352.52.62.72.852.953.1];

%公路面積(萬(wàn)平方米)c=[0.090.110.110.140.200.230.230.320.320.340.360.360.380.490.560.590.590.670.690.79];%公路客運(yùn)量(萬(wàn)人)d=[512662177730914510460113871235315750183041983621024194902043322598251073344236836405484292743462];%公路貨運(yùn)量(萬(wàn)噸)e=[123713791385139916631714183443228132893

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論