




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、Good is good, but better carries it.精益求精,善益求善。MATLAB程序代碼-神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問(wèn)題整理MATLAB程序代碼-神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問(wèn)題整理所選問(wèn)題及解答大部分來(lái)源于HYPERLINK/bbs/bbs/資料大部分為江南一紀(jì)收集整理對(duì)其他參與整理的版友(不一一列舉)及資料的原創(chuàng)者一并表示感謝因江南對(duì)神經(jīng)網(wǎng)絡(luò)的理解也不是很多錯(cuò)誤之處難勉請(qǐng)諒解有什么問(wèn)題可以來(lái)HYPERLINK/bbs/bbs/的HYPERLINK/bbs/thread.php?fid=60人工神經(jīng)網(wǎng)絡(luò)專(zhuān)區(qū)交流*1神經(jīng)網(wǎng)絡(luò)的教材哪本比較經(jīng)典神經(jīng)網(wǎng)絡(luò)原理SimonHaykin?葉世?史忠植譯神經(jīng)網(wǎng)絡(luò)
2、設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)書(shū)籍神經(jīng)網(wǎng)絡(luò)模型及其matlab仿真程序設(shè)計(jì)周開(kāi)利(對(duì)神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)及里面神經(jīng)網(wǎng)絡(luò)工具箱的神經(jīng)網(wǎng)絡(luò)模型的網(wǎng)絡(luò)對(duì)象及其屬性做了詳細(xì)的論述,后者在神經(jīng)網(wǎng)絡(luò)理論與matlab7實(shí)現(xiàn)那本書(shū)里面是沒(méi)有的)神經(jīng)網(wǎng)絡(luò)理論與matlab7實(shí)現(xiàn)(這本書(shū)對(duì)初學(xué)這入門(mén)還是挺不錯(cuò)的,看過(guò)了,就對(duì)matlab神經(jīng)網(wǎng)絡(luò)工具箱有教好的了解)神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)(我認(rèn)為這是一本很好的書(shū),講理論不是很多,看過(guò)之后就會(huì)對(duì)神經(jīng)網(wǎng)絡(luò)的原理有更好的了解)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的理論與方法(這本書(shū)對(duì)提高網(wǎng)絡(luò)的泛化能力的一些方法做了講述,并且書(shū)后有程序,對(duì)網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)應(yīng)該是挺有幫助的)摘自給初學(xué)matlab神經(jīng)網(wǎng)絡(luò)的一點(diǎn)建議HYPER
3、LINK/bbs/read.php?tid=1111&keyword=t_blank/bbs/read.php?tid=1111&keyword=2神經(jīng)網(wǎng)絡(luò)理論的發(fā)展與前沿問(wèn)題神經(jīng)網(wǎng)絡(luò)理論的發(fā)展與前沿問(wèn)題劉永?摘要系統(tǒng)地論述了神經(jīng)網(wǎng)絡(luò)理論發(fā)展的歷史和現(xiàn)狀,在此基礎(chǔ)上,對(duì)其主要發(fā)展趨向和所涉及的前沿問(wèn)題進(jìn)行了闡述文中還作了一定的評(píng)論,并提出了新的觀點(diǎn)關(guān)鍵詞神經(jīng)網(wǎng)絡(luò)理論,神經(jīng)計(jì)算,進(jìn)化計(jì)算,基于神經(jīng)科學(xué)和數(shù)學(xué)的研?查看原文HYPERLINK/bbs/read.php?tid=5374&keyword=%C9%F1%BE%AD%CD%F8%C2%E7t_blank/bbs/read.php?tid=
4、5374&keyword=%C9%F1%BE%AD%CD%F8%C2%E73神經(jīng)網(wǎng)絡(luò)的權(quán)值和閾值分別是個(gè)什么概念?權(quán)值和閾值是神經(jīng)元之間的連接,將數(shù)據(jù)輸入計(jì)算出一個(gè)輸出,然后與實(shí)際輸出比較,誤差反傳,不斷調(diào)整權(quán)值和閾值假如p1=11-1;p2=1-1-1;屬于不同的類(lèi)須設(shè)計(jì)分類(lèi)器將他們分開(kāi)這里用單層神經(jīng)元感知器初始權(quán)值w=b=-0.3輸出a1a2a1=hardlims(w*p1+b)a2=hardlims(w*p2+b)如果不能分開(kāi),還須不斷調(diào)整w,b這里說(shuō)明一下權(quán)值w閾值b而已簡(jiǎn)單地說(shuō),閾值也可以看作一維權(quán)值,只不過(guò)它所對(duì)應(yīng)的那一維樣本永遠(yuǎn)是-1(也有的書(shū)上說(shuō)是1),這樣就把輸入樣本增加了一
5、維,更有利于解決問(wèn)題.HYPERLINK/bbs/read.php?tid=6078&keyword=%C9%F1%BE%AD%CD%F8%C2%E7t_blank/bbs/read.php?tid=6078&keyword=%C9%F1%BE%AD%CD%F8%C2%E74神經(jīng)網(wǎng)絡(luò)歸一化看了研學(xué)和ai創(chuàng)業(yè)研發(fā)俱樂(lè)部神經(jīng)網(wǎng)絡(luò)版及振動(dòng)論壇部分帖子內(nèi)容,對(duì)歸一化做一下整理,冒昧引用了一些他人的觀點(diǎn),有的未列出其名,請(qǐng)諒解關(guān)于神經(jīng)網(wǎng)絡(luò)歸一化方法的整理由于采集的各數(shù)據(jù)單位不一致,因而須對(duì)數(shù)據(jù)進(jìn)行-1,1歸一化處理,歸一化方法主要有如下幾種,供大家參考:(byjames)1、線(xiàn)性函數(shù)轉(zhuǎn)換,表達(dá)式如下:y
6、=(x-MinValue)/(MaxValue-MinValue)說(shuō)明:x、y分別為轉(zhuǎn)換前、后的值,MaxValue、MinValue分別為樣本的最大值和最小值。2、對(duì)數(shù)函數(shù)轉(zhuǎn)換,表達(dá)式如下:y=log10(x)說(shuō)明:以10為底的對(duì)數(shù)函數(shù)轉(zhuǎn)換。3、反余切函數(shù)轉(zhuǎn)換,表達(dá)式如下:y=atan(x)*2/PI歸一化是為了加快訓(xùn)練網(wǎng)絡(luò)的收斂性,可以不進(jìn)行歸一化處理歸一化的具體作用是歸納統(tǒng)一樣本的統(tǒng)計(jì)分布性。歸一化在0-1之間是統(tǒng)計(jì)的概率分布,歸一化在-1-+1之間是統(tǒng)計(jì)的坐標(biāo)分布。歸一化有同一、統(tǒng)一和合一的意思。無(wú)論是為了建模還是為了計(jì)算,首先基本度量單位要同一,神經(jīng)網(wǎng)絡(luò)是以樣本在事件中的統(tǒng)計(jì)分別幾率
7、來(lái)進(jìn)行訓(xùn)練(概率計(jì)算)和預(yù)測(cè)的,歸一化是同一在0-1之間的統(tǒng)計(jì)概率分布;當(dāng)所有樣本的輸入信號(hào)都為正值時(shí),與第一隱含層神經(jīng)元相連的權(quán)值只能同時(shí)增加或減小,從而導(dǎo)致學(xué)習(xí)速度很慢。為了避免出現(xiàn)這種情況,加快網(wǎng)絡(luò)學(xué)習(xí)速度,可以對(duì)輸入信號(hào)進(jìn)行歸一化,使得所有樣本的輸入信號(hào)其均值接近于0或與其均方差相比很小。歸一化是因?yàn)閟igmoid函數(shù)的取值是0到1之間的,網(wǎng)絡(luò)最后一個(gè)節(jié)點(diǎn)的輸出也是如此,所以經(jīng)常要對(duì)樣本的輸出歸一化處理。所以這樣做分類(lèi)的問(wèn)題時(shí)用就要比用100要好。但是歸一化處理并不總是合適的,根據(jù)輸出值的分布情況,標(biāo)準(zhǔn)化等其它統(tǒng)計(jì)變換方法有時(shí)可能更好。關(guān)于用premnmx語(yǔ)句進(jìn)行歸一化:premnmx
8、語(yǔ)句的語(yǔ)法格式是:Pn,minp,maxp,Tn,mint,maxt=premnmx(P,T)其中P,T分別為原始輸入和輸出數(shù)據(jù),minp和maxp分別為P中的最小值和最大值。mint和maxt分別為T(mén)的最小值和最大值。premnmx函數(shù)用于將網(wǎng)絡(luò)的輸入數(shù)據(jù)或輸出數(shù)據(jù)進(jìn)行歸一化,歸一化后的數(shù)據(jù)將分布在-1,1區(qū)間內(nèi)。我們?cè)谟?xùn)練網(wǎng)絡(luò)時(shí)如果所用的是經(jīng)過(guò)歸一化的樣本數(shù)據(jù),那么以后使用網(wǎng)絡(luò)時(shí)所用的新數(shù)據(jù)也應(yīng)該和樣本數(shù)據(jù)接受相同的預(yù)處理,這就要用到tramnmx。下面介紹tramnmx函數(shù):Pn=tramnmx(P,minp,maxp)其中P和Pn分別為變換前、后的輸入數(shù)據(jù),maxp和minp分別為pr
9、emnmx函數(shù)找到的最大值和最小值。(byterry2008)matlab中的歸一化處理有三種方法1.premnmx、postmnmx、tramnmx2.restd、poststd、trastd3.自己編程具體用那種方法就和你的具體問(wèn)題有關(guān)了(byhappy)pm=max(abs(p(i,:);p(i,:)=p(i,:)/pm;和fori=1:27p(i,:)=(p(i,:)-min(p(i,:)/(max(p(i,:)-min(p(i,:);end可以歸一到01之間0.1+(x-min)/(max-min)*(0.9-0.1)其中max和min分別表示樣本最大值和最小值。這個(gè)可以歸一到0.1
10、-0.95如何查看BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的權(quán)值和閾值呀!訓(xùn)練好的權(quán)值、閾值的輸出方法是:輸入到隱層權(quán)值:w1=net.iw1,1隱層閾值:theta1=net.b1隱層到輸出層權(quán)值:w2=net.lw2,1;輸出層閾值:theta2=net.b26訓(xùn)練好的BP神經(jīng)網(wǎng)絡(luò)如何保存呀用命令savefilenamenet;保存網(wǎng)絡(luò),調(diào)用時(shí)用命令loadfilenamenet;7用BP逼近非線(xiàn)性函數(shù),如何提高訓(xùn)練精度啊(1)調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)增加網(wǎng)絡(luò)的層數(shù)可以進(jìn)一步降低誤差,提高精度但會(huì)使網(wǎng)絡(luò)復(fù)雜化,從而增加網(wǎng)絡(luò)的訓(xùn)練時(shí)間。精度的提高實(shí)際上也可以通過(guò)增加隱層神經(jīng)元的數(shù)目來(lái)獲得,其效果更容易觀察和掌握,所以應(yīng)優(yōu)先考
11、慮。(2)初始值選取為了使誤差盡可能小,需要合理選擇初始權(quán)重和偏置,如果太大就容易陷入飽和區(qū),導(dǎo)致停頓。一般應(yīng)選為均勻分布的小數(shù),介于(一1,1)。(3)學(xué)習(xí)速率調(diào)整學(xué)習(xí)速率的選取很重要,大了可能導(dǎo)致系統(tǒng)不穩(wěn)定,小了會(huì)導(dǎo)致訓(xùn)練周期過(guò)長(zhǎng)、收斂慢,達(dá)不到要求的誤差。一般傾向于選取較小的學(xué)習(xí)速率以保持系統(tǒng)穩(wěn)定,通過(guò)觀察誤差下降曲線(xiàn)來(lái)判斷。下降較快說(shuō)明學(xué)習(xí)率比較合適,若有較大振蕩則說(shuō)明學(xué)習(xí)率偏大。同時(shí),由于網(wǎng)絡(luò)規(guī)模大小的不同,學(xué)習(xí)率選擇應(yīng)當(dāng)針對(duì)其進(jìn)行調(diào)整。(4)期望誤差期望誤差當(dāng)然希望越小越好,但是也要有合適值。8關(guān)于BP網(wǎng)絡(luò)優(yōu)缺點(diǎn)的討論HYPERLINK/bbs/read.php?tid=340t_
12、blank/bbs/read.php?tid=3409對(duì)初學(xué)神經(jīng)網(wǎng)絡(luò)者的小提示HYPERLINK/bbs/read.php?tid=427&fpage=3t_blank/bbs/read.php?tid=427&fpage=310神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的討論HYPERLINK/bbs/read.php?tid=2980t_blank/bbs/read.php?tid=298011權(quán)威!BP網(wǎng)絡(luò)中隱層結(jié)點(diǎn)個(gè)數(shù)的確定!HYPERLINK/bbs/read.php?tid=269&fpage=2t_blank/bbs/read.php?tid=269&fpage=212神經(jīng)網(wǎng)絡(luò)混合編程VB6.0中調(diào)用nnTo
13、olKit工具包程序HYPERLINK/bbs/read.php?tid=1209t_blank/bbs/read.php?tid=1209在VC中使用nntoolkit工具箱HYPERLINK/bbs/read.php?tid=1236t_blank/bbs/read.php?tid=1236cb6.0中調(diào)用nnToolKit工具包程序HYPERLINK/bbs/read.php?tid=1210t_blank/bbs/read.php?tid=121013用遺傳算法優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的Matlab編程由于BP網(wǎng)絡(luò)的權(quán)值優(yōu)化是一個(gè)無(wú)約束優(yōu)化問(wèn)題,而且權(quán)值要采用實(shí)數(shù)編碼,所以直接利用Matlab
14、遺傳算法工具箱。以下貼出的代碼是為一個(gè)19輸入變量,1個(gè)輸出變量情況下的非線(xiàn)性回歸而設(shè)計(jì)的,如果要應(yīng)用于其它情況,只需改動(dòng)編解碼函數(shù)即可。具體請(qǐng)查看HYPERLINK/bbs/read.php?tid=2925t_blank/bbs/read.php?tid=292514幫我看一下BP神經(jīng)網(wǎng)絡(luò)程序出錯(cuò)在哪里,愁死我了p=1,15,25;2,15,25;3,15,25;4,15,25;1,15,25;2,5,25;2,7.5,25;2,10,25;2,15,25;t=0.6169;0.7068;0.7998;0.9052;1.0881;3.4255;1.0509;0.8835;0.7068;pn
15、,minp,maxp=premnmx(p);net=newff(minmax(pn),9,12,1,tansig,tansig,purelin,traingdm);net.trainparam.show=25;net.trainparam.mc=0.9;net.trainparam.lr=0.05;net.trainparam.epochs=1000;net.trainparam.goal=0.00001;net=init(net);net,tr=train(net,p,t);出錯(cuò)的原因是Errorusing=network/trainTargetsareincorrectlysizedfor
16、network.Matrixmusthave1rows.pt的列數(shù)要相等在pn,minp,maxp=premnmx(p);前面加入:p=p;t=t。在使用工具箱進(jìn)行網(wǎng)絡(luò)訓(xùn)練時(shí),要求訓(xùn)練樣本的個(gè)體是列向量。HYPERLINK/bbs/read.php?tid=5847&keyword=%C9%F1%BE%AD%CD%F8%C2%E7t_blank/bbs/read.php?tid=5847&keyword=%C9%F1%BE%AD%CD%F8%C2%E715問(wèn)各位一個(gè)問(wèn)題,我用一個(gè)前向神經(jīng)網(wǎng)絡(luò)作分類(lèi),希望輸出1;0;0表示一類(lèi);但是輸出的是0.9997;0.0001;0諸如此類(lèi),我該怎么判斷分類(lèi)
17、的成功與否?判斷一下:如果三個(gè)數(shù)中最大的一個(gè)在第一位置,就用1;0;0表示表示分類(lèi)正確16能不能給解釋一下這些分別是設(shè)定一個(gè)網(wǎng)絡(luò)的什么參數(shù)?net.trainParam.show=50;net.trainParam.lr=0.05;net.trainParam.epochs=10000;net.trainParam.goal=1e-5;net.trainParam.show=50;/訓(xùn)練50次刷新一下訓(xùn)練圖net.trainParam.lr=0.05;/學(xué)習(xí)率net.trainParam.epochs=10000;/訓(xùn)練次數(shù)net.trainParam.goal=1e-5;/訓(xùn)練結(jié)束的目標(biāo)17
18、神經(jīng)網(wǎng)絡(luò)的文件如何轉(zhuǎn)為simulinkhelpgensimhelpfornetwork/gensim.mGENSIMGenerateaSIMULINKblocktosimulateaneuralnetwork.Syntaxgensim(net,st)18ann如何做預(yù)測(cè)一個(gè)不錯(cuò)的例子HYPERLINK/bbs/read.php?tid=5809t_blank/bbs/read.php?tid=580919小波神經(jīng)網(wǎng)絡(luò)小波神經(jīng)網(wǎng)絡(luò)就是小波分析理論與神經(jīng)網(wǎng)絡(luò)理論相結(jié)合的產(chǎn)物。從結(jié)構(gòu)形式分有兩大類(lèi):1、小波分析與神經(jīng)網(wǎng)絡(luò)的松散型結(jié)合;2、小波分析與神經(jīng)網(wǎng)絡(luò)的嵌入式結(jié)合。前者是指彼此雖緊密結(jié)合但卻又相
19、對(duì)獨(dú)立,采集到的信號(hào)先經(jīng)過(guò)小波變換后輸入到常規(guī)神經(jīng)網(wǎng)絡(luò)以完成分類(lèi)、函數(shù)逼近等。后者是指將常規(guī)單隱層的神經(jīng)網(wǎng)絡(luò)的隱節(jié)點(diǎn)激勵(lì)函數(shù)用小波函數(shù)代替,相應(yīng)的輸入到隱層的圈值及閾值分別由小波函數(shù)的伸縮因子和平移因子代替,這也是我們通常所說(shuō)的小波網(wǎng)絡(luò)。小波網(wǎng)絡(luò)在訓(xùn)練的過(guò)程中同樣采用普通BP算法,但是它對(duì)參數(shù)的初始化表現(xiàn)敏感,所以參數(shù)的初始在小波網(wǎng)絡(luò)的訓(xùn)練中也是很重要的。20那位有人工神經(jīng)網(wǎng)絡(luò)導(dǎo)論高教出版社出版的蔣宗禮編的電子版書(shū)啊?HYPERLINK/bbs/read.php?tid=1278&keyword=%C8%CB%B9%A4%C9%F1%BE%AD%CD%F8%C2%E7%B5%BC%C2%DBt
20、_blank/bbs/read.php?tid=1278&keyword=%C8%CB%B9%A4%C9%F1%BE%AD%CD%F8%C2%E7%B5%BC%C2%DB21:網(wǎng)絡(luò)的結(jié)構(gòu)選擇輸入層和輸出層節(jié)點(diǎn)數(shù)選擇由應(yīng)用要求決定。輸入節(jié)點(diǎn)數(shù)一般等于要訓(xùn)練的樣本矢量維數(shù),可以是原始數(shù)據(jù)的維數(shù)或提取的特征維數(shù);輸出單元數(shù)在分類(lèi)網(wǎng)絡(luò)中取類(lèi)別數(shù)m或log2m,在逼近網(wǎng)絡(luò)中取要逼近的函數(shù)輸出空間維數(shù)。當(dāng)網(wǎng)絡(luò)用于工業(yè)過(guò)程辨識(shí)或時(shí)間序列預(yù)測(cè)建模時(shí),輸入節(jié)點(diǎn)數(shù)的選擇應(yīng)由非線(xiàn)性系統(tǒng)定階的結(jié)果確定。網(wǎng)絡(luò)的隱層數(shù)和隱節(jié)點(diǎn)數(shù)決定了網(wǎng)絡(luò)的規(guī)模,而網(wǎng)絡(luò)的規(guī)模與其性能密切相關(guān)。神經(jīng)網(wǎng)絡(luò)的規(guī)模越大,網(wǎng)絡(luò)中的自由參數(shù)就越多;反
21、之,網(wǎng)絡(luò)中的自由參數(shù)就越少。如果神經(jīng)網(wǎng)絡(luò)用于逼近一個(gè)目標(biāo)函數(shù)(分類(lèi)可以看成函數(shù)逼近的特殊情況),則當(dāng)網(wǎng)絡(luò)規(guī)模過(guò)小,神經(jīng)網(wǎng)絡(luò)逼近能力不足,容易導(dǎo)致欠擬合;網(wǎng)絡(luò)規(guī)模過(guò)大,神經(jīng)網(wǎng)絡(luò)逼近能力過(guò)剩,則容易導(dǎo)致過(guò)擬合;因此,確定網(wǎng)絡(luò)規(guī)模是神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的一項(xiàng)重要內(nèi)容。22網(wǎng)絡(luò)不穩(wěn)定性問(wèn)題我對(duì)次發(fā)表點(diǎn)個(gè)人看法吧,我覺(jué)的網(wǎng)絡(luò)不穩(wěn)定屬于正常現(xiàn)象,我以大家用的最多的BP網(wǎng)絡(luò)為例,比如網(wǎng)絡(luò)隱含層節(jié)點(diǎn)的數(shù)目和網(wǎng)絡(luò)訓(xùn)練算法選取的不同,都也可能導(dǎo)致同一網(wǎng)絡(luò)結(jié)構(gòu)針對(duì)同一測(cè)試樣本的數(shù)據(jù)有著截然不同的解,原因是多方面的,與樣本有關(guān),與BP算法自身也有關(guān)系,在網(wǎng)絡(luò)初始化時(shí),BP采用rand函數(shù)初始化權(quán)值,這樣不同時(shí)間訓(xùn)練對(duì)于ran
22、d當(dāng)然會(huì)有不同的取值,BP是按照梯度最大方向修正誤差平方和的,網(wǎng)絡(luò)自身算法就有一定的局限性。如果要保留現(xiàn)有的節(jié)點(diǎn)之間的值可以用net.iw,net.b,net.lw保留,這樣網(wǎng)絡(luò)的值就可以保留下來(lái)了。不過(guò)有時(shí)與樣本特征,數(shù)目也有關(guān)系,樣本太少訓(xùn)練的結(jié)果也不會(huì)令人滿(mǎn)意。個(gè)人觀點(diǎn),僅供參考。HYPERLINK/bbs/read.php?tid=5389&page=e&lat_blank/bbs/read.php?tid=5389&page=e保存網(wǎng)絡(luò),可使預(yù)測(cè)的結(jié)果不會(huì)變化,調(diào)用時(shí)用命令loadfilenamenet;HYPERLINK/bbs/read.php?tid=6319&keyword=
23、t_blank/bbs/read.php?tid=6319&keyword=30在用MATLAB實(shí)現(xiàn)BP反向?qū)W習(xí)時(shí)需要不需要用deltalin()、learnbp()、sumsqr()這樣的函數(shù)啊?deltalin()、learnbp()是比較舊的版本函數(shù).如果不是做神經(jīng)網(wǎng)絡(luò)函數(shù),直接應(yīng)用newff,bptrain等工具箱函數(shù)就可以了.32人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)人工神經(jīng)網(wǎng)絡(luò)的以下幾個(gè)突出的優(yōu)點(diǎn)使它近年來(lái)引起人們的極大關(guān)注:(1)可以充分逼近任意復(fù)雜的非線(xiàn)性關(guān)系;(2)所有定量或定性的信息都等勢(shì)分布貯存于網(wǎng)絡(luò)內(nèi)的各神經(jīng)元,故有很強(qiáng)的魯棒性和容錯(cuò)性;(3)采用并行分布處理方法,使得快速進(jìn)行大量運(yùn)算成為
24、可能;(4)可學(xué)習(xí)和自適應(yīng)不知道或不確定的系統(tǒng);(5)能夠同時(shí)處理定量、定性知識(shí)。人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)和優(yōu)越性,主要表現(xiàn)在三個(gè)方面:第一,具有自學(xué)習(xí)功能。例如實(shí)現(xiàn)圖像識(shí)別時(shí),只在先把許多不同的圖像樣板和對(duì)應(yīng)的應(yīng)識(shí)別的結(jié)果輸入人工神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)就會(huì)通過(guò)自學(xué)習(xí)功能,慢慢學(xué)會(huì)識(shí)別類(lèi)似的圖像。自學(xué)習(xí)功能對(duì)于預(yù)測(cè)有特別重要的意義。預(yù)期未來(lái)的人工神經(jīng)網(wǎng)絡(luò)計(jì)算機(jī)將為人類(lèi)提供經(jīng)濟(jì)預(yù)測(cè)、市場(chǎng)預(yù)測(cè)、效益預(yù)測(cè),其應(yīng)用前途是很遠(yuǎn)大的。第二,具有聯(lián)想存儲(chǔ)功能。用人工神經(jīng)網(wǎng)絡(luò)的反饋網(wǎng)絡(luò)就可以實(shí)現(xiàn)這種聯(lián)想。第三,具有高速尋找優(yōu)化解的能力。尋找一個(gè)復(fù)雜問(wèn)題的優(yōu)化解,往往需要很大的計(jì)算量,利用一個(gè)針對(duì)某問(wèn)題而設(shè)計(jì)的反饋型人工神經(jīng)
25、網(wǎng)絡(luò),發(fā)揮計(jì)算機(jī)的高速運(yùn)算能力,可能很快找到優(yōu)化解。33人工神經(jīng)網(wǎng)絡(luò)的主要方向神經(jīng)網(wǎng)絡(luò)的研究可以分為理論研究和應(yīng)用研究?jī)纱蠓矫妗@碚撗芯靠煞譃橐韵聝深?lèi):1)利用神經(jīng)生理與認(rèn)知科學(xué)研究人類(lèi)思維以及智能機(jī)理。2)利用神經(jīng)基礎(chǔ)理論的研究成果,用數(shù)理方法探索功能更加完善、性能更加優(yōu)越的神經(jīng)網(wǎng)絡(luò)模型,深入研究網(wǎng)絡(luò)算法和性能,如:穩(wěn)定性、收斂性、容錯(cuò)性、魯棒性等;開(kāi)發(fā)新的網(wǎng)絡(luò)數(shù)理理論,如:神經(jīng)網(wǎng)絡(luò)動(dòng)力學(xué)、非線(xiàn)性神經(jīng)場(chǎng)等。應(yīng)用研究可分為以下兩類(lèi):1)神經(jīng)網(wǎng)絡(luò)的軟件模擬和硬件實(shí)現(xiàn)的研究。2)神經(jīng)網(wǎng)絡(luò)在各個(gè)領(lǐng)域中應(yīng)用的研究。這些領(lǐng)域主要包括:模式識(shí)別、信號(hào)處理、知識(shí)工程、專(zhuān)家系統(tǒng)、優(yōu)化組合、機(jī)器人控制等。隨著神
26、經(jīng)網(wǎng)絡(luò)理論本身以及相關(guān)理論、相關(guān)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)的應(yīng)用定將更加深入。34如何選擇訓(xùn)練集和測(cè)試集數(shù)據(jù)?一般需要將樣本分成獨(dú)立的三部分訓(xùn)練集(trainset),驗(yàn)證集(validationset)和測(cè)試集(testset)。其中訓(xùn)練集用來(lái)估計(jì)模型,驗(yàn)證集用來(lái)確定網(wǎng)絡(luò)結(jié)構(gòu)或者控制模型復(fù)雜程度的參數(shù),而測(cè)試集則檢驗(yàn)最終選擇最優(yōu)的模型的性能如何。一個(gè)典型的劃分是訓(xùn)練集占總樣本的50,而其它各占25,三部分都是從樣本中隨機(jī)抽取。樣本少的時(shí)候,上面的劃分就不合適了。常用的是留少部分做測(cè)試集。然后對(duì)其余N個(gè)樣本采用K折交叉驗(yàn)證法。就是將樣本打亂,然后均勻分成K份,輪流選擇其中K1份訓(xùn)練,剩余的一份做
27、驗(yàn)證,計(jì)算預(yù)測(cè)誤差平方和,最后把K次的預(yù)測(cè)誤差平方和再做平均作為選擇最優(yōu)模型結(jié)構(gòu)的依據(jù)。特別的K取N,就是留一法(leaveoneout)。35神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)(七種C實(shí)現(xiàn)).HYPERLINK/bbs/read.php?tid=5343t_blank/bbs/read.php?tid=534336SOM的優(yōu)點(diǎn)請(qǐng)問(wèn)與神經(jīng)網(wǎng)絡(luò)的其他分類(lèi)方法,比如Hamming,MLP相比,SOM有什么優(yōu)點(diǎn)?.快速性(無(wú)隱含層).無(wú)監(jiān)督性.可視化效果.37神經(jīng)網(wǎng)絡(luò)的應(yīng)用我想問(wèn)一下要應(yīng)用實(shí)際中,神經(jīng)網(wǎng)絡(luò)技術(shù)最關(guān)鍵的地方在哪?我個(gè)人認(rèn)為首先是對(duì)實(shí)際問(wèn)題分析,看傳統(tǒng)的方法行不行,如果行就用傳統(tǒng)方法解決,如果傳統(tǒng)方法
28、解決的不理想,然后嘗試用神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)用于求解問(wèn)題是因?yàn)樗哂小皩W(xué)習(xí)”能力,對(duì)于非線(xiàn)性、有噪、模式識(shí)別等問(wèn)題有著得天獨(dú)厚的優(yōu)勢(shì),對(duì)于問(wèn)題分析以后,重在選擇相應(yīng)的模型求解,嘗試模型的求解過(guò)程同時(shí)也涉及到模型的優(yōu)化等問(wèn)題,最后編制程序運(yùn)行。我個(gè)人認(rèn)為選擇什么樣的模型求解實(shí)際問(wèn)題是最關(guān)鍵的,用什么語(yǔ)言編程實(shí)現(xiàn)或者怎么實(shí)現(xiàn)好象都不是那么難。個(gè)人觀點(diǎn),歡迎補(bǔ)充。HYPERLINK/bbs/read.php?tid=4771&fpage=4t_blank/bbs/read.php?tid=4771&fpage=4我眼中的神經(jīng)網(wǎng)絡(luò)給初學(xué)者我覺(jué)得目前論壇里的新手很多,呵呵,問(wèn)的問(wèn)題很多都是重復(fù)的,首先希望你們能先找找時(shí)不時(shí)有人問(wèn)過(guò)了,是不是有人已經(jīng)回答過(guò)了。下面我把我的一點(diǎn)體會(huì)和看法說(shuō)出來(lái),可能有很多是不正確或者不深刻的,希望各位指出來(lái),謝謝1、我知道的目前一般的神經(jīng)網(wǎng)絡(luò),尤其是前饋網(wǎng)絡(luò)可以做的是兩方面的問(wèn)題:分類(lèi)和函數(shù)擬合(包括預(yù)測(cè))。當(dāng)然,hopfield網(wǎng)絡(luò)還具有聯(lián)想記憶功能,可以做一些相關(guān)的事情。2、我覺(jué)得神經(jīng)網(wǎng)絡(luò)還處于初期階段,很多問(wèn)題,尤其是規(guī)模大或者要求精度高的問(wèn)題,還是解決
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 服裝合同采購(gòu)6篇
- 專(zhuān)業(yè)網(wǎng)站建設(shè)試題及答案
- 上海土建安全員模擬題庫(kù)及答案
- 糖果加工合同6篇
- 室內(nèi)設(shè)計(jì)課件
- 城區(qū)水環(huán)境綜合治理勞務(wù)施工合同6篇
- 電動(dòng)吊籃租賃合同與電動(dòng)工具租賃合同2篇
- 幼兒園愛(ài)衛(wèi)生講文明
- 健康促進(jìn)縣區(qū)課件
- 機(jī)械設(shè)計(jì)及其制度課件
- 《養(yǎng)老機(jī)構(gòu)重大事故隱患判定標(biāo)準(zhǔn)》主要內(nèi)容解讀
- 米字格A4打印版
- 陜西省西安市蓮湖區(qū)2023-2024學(xué)年六年級(jí)下學(xué)期期末英語(yǔ)試題
- 企業(yè)錄用通知書(shū)offer模板
- 人際溝通與禮儀智慧樹(shù)知到課后章節(jié)答案2023年下河北工業(yè)職業(yè)技術(shù)學(xué)院
- 臨床藥理學(xué)(完整課件)
- 田徑運(yùn)動(dòng)會(huì)競(jìng)賽團(tuán)體總分記錄表
- 《中小學(xué)綜合實(shí)踐活動(dòng)課程指導(dǎo)綱要》
- 公共資源交易中心政府采購(gòu)業(yè)務(wù)流程圖
- 建筑施工單位職業(yè)危害歸類(lèi)表
- 重慶市醫(yī)療服務(wù)價(jià)格-重慶市《醫(yī)療服務(wù)價(jià)格手冊(cè)-》
評(píng)論
0/150
提交評(píng)論