好文档 - 专业文书写作范文服务资料分享网站

BP神经网络matlab实例简单而

天下 分享 时间: 加入收藏 我要投稿 点赞

精心整理

p=p1';t=t1';

[pn,minp,maxp,tn,mint,maxt]=premnmx(p,t);%原始数据归一化

net=newff(minmax(pn),[5,1],{'tansig','purelin'},'traingdx');%设置网络,建立相应的BP网络 %训练网络

[net,tr]=train(net,pn,tn);%调用TRAINGDM算法训练BP网络 pnew=pnew1';

pnewn=tramnmx(pnew,minp,maxp);

anewn=sim(net,pnewn);%对BP网络进行仿真 anew=postmnmx(anewn,mint,maxt);%还原数据 y=anew'; 1、BP网络构建 (1)生成BP网络 PR:由R维的输入样本最小最大值构成的R?2维矩阵。 [S1 S2...SNl]:各层的神经元个数。 {TF1 TF2...TFNl}:各层的神经元传递函数。 BTF:训练用函数的名称。 (2)网络训练 (3)网络仿真 {'tansig','purelin'},'trainrp' BP网络的训练函数 训练方法 梯度下降法 有动量的梯度下降法 自适应lr梯度下降法 自适应lr动量梯度下降法 弹性梯度下降法 Fletcher-Reeves共轭梯度法 Ploak-Ribiere共轭梯度法 Powell-Beale共轭梯度法 量化共轭梯度法 拟牛顿算法 一步正割算法 Levenberg-Marquardt BP网络训练参数 训练函数 traingd traingdm traingda traingdx trainrp traincgf traincgp traincgb trainscg trainbfg trainoss trainlm 参数介绍 训练函数 训练参数 最大训练次数(缺省为10) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm 训练要求精度(缺省为0) traingd、traingdm、traingda、traingdx、trainrp、traincgf、

精心整理 traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm 学习率(缺省为0.01) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm 最大失败次数(缺省为5) 最小梯度要求(缺省为1e-10) 显示训练迭代过程(NaN表示不显示,缺省为25) 最大训练时间(缺省为inf) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm 动量因子(缺省0.9) 学习率lr增长比(缺省为1.05) traingdm、traingdx traingda、traingdx net.trainParam.mc net.trainParam.lr_inc net.trainParam.lr_dec 学习率lr下降比(缺省为0.7) traingda、traingdx traingda、traingdx trainrp trainrp 为1.04) net.trainParam.max_perf_inc 表现函数增加最大比(缺省net.trainParam.delt_inc net.trainParam.delt_dec net.trainParam.delt0 net.trainParam.deltamax net.trainParam.searchFcn net.trainParam.sigma net.trainParam.lambda net.trainParam.men_reduc 权值变化增加量(缺省为1.2) 权值变化减小量(缺省为0.5) 权值变化最大值(缺省为50.0) 一维线性搜索方法(缺省为srchcha) 因为二次求导对权值调整的影响参数(缺省值5.0e-5) Hessian矩阵不确定性调节参数(缺省为5.0e-7) 初始权值变化(缺省为0.07) trainrp trainrp traincgf、traincgp、traincgb、trainbfg、trainoss trainscg trainscg net.trainParam.mu net.trainParam.mu_dec 控制计算机内存/速度的参trainlm 量,内存较大设为1,否则设为2(缺省为1) trainlm ?的初始值(缺省为0.001)?的减小率(缺省为0.1) trainlm 精心整理 net.trainParam.mu_inc net.trainParam.mu_max ?的增长率(缺省为10) trainlm ?的最大值(缺省为1e10) trainlm 2、BP网络举例 举例1、

%traingd clear; clc;

P=[-1-1224;05057]; T=[-1-111-1];

%利用minmax函数求输入样本范围

net=newff(minmax(P),T,[5,1],{'tansig','purelin'},'trainrp'); [net,tr]=train(net,P,T); net.iw{1,1}%隐层权值 net.b{1}%隐层阈值 net.lw{2,1}%输出层权值 net.b{2}%输出层阈值 sim(net,P) 举例2、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。 样本数据: 输入X -1.0000 -0.9000 -0.8000 -0.7000 -0.6000 -0.5000 -0.4000 解: 看到期望输出的范围是??1,1?,所以利用双极性Sigmoid函数作为转移函数。 程序如下: clear; clc; X=-1:0.1:1; D=[-0.9602-0.5770-0.07290.37710.64050.66000.4609... 0.1336-0.2013-0.4344-0.5000-0.3930-0.1647-.0988... 0.30720.39600.34490.1816-0.312-0.2189-0.3201]; figure;

plot(X,D,'*');%绘制原始数据分布图(附录:1-1) net=newff([-11],[51],{'tansig','tansig'}); 0;%训练的最大次数 =0.005;%全局最小误差 net=train(net,X,D); O=sim(net,X); figure;

plot(X,D,'*',X,O);%绘制训练后得到的结果和误差曲线(附录:1-2、1-3) V=net.iw{1,1};%输入层到中间层权值

输出D -0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609 输入X -0.3000 -0.2000 -0.1000 0 0.1000 0.2000 0.3000 输出D 0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -0.0988 输入X 0.4000 0.5000 0.6000 0.7000 0.8000 0.9000 1.0000 输出D 0.3072 0.3960 0.3449 0.1816 -0.3120 -0.2189 -0.3201 精心整理

theta1=net.b{1};%中间层各神经元阈值 W=net.lw{2,1};%中间层到输出层权值 theta2=net.b{2};%输出层各神经元阈值

所得结果如下:

输入层到中间层的权值:V??-9.1669 7.3448 7.3761 4.8966 3.5409? 中间层各神经元的阈值:???6.5885 -2.4019 -0.9962 1.5303 3.2731? 中间层到输出层的权值:W??0.3427 0.2135 0.2981 -0.8840 1.9134?

输出层各神经元的阈值:T?-1.5271

举例3、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。 样本数据: 输入X 0 1 2 3 解: 看到期望输出的范围超出??1,1?,所以输出层神经元利用线性函数作为转移函数。 程序如下: clear; clc; X=[012345678910]; D=[01234321234]; figure; plot(X,D,'*');%绘制原始数据分布图 net=newff([010],[51],{'tansig','purelin'}) net=train(net,X,D); O=sim(net,X); figure; plot(X,D,'*',X,O);%绘制训练后得到的结果和误差曲线(附录:2-2、2-3) V=net.iw{1,1}%输入层到中间层权值 theta1=net.b{1}%中间层各神经元阈值 W=net.lw{2,1}%中间层到输出层权值 theta2=net.b{2}%输出层各神经元阈值

TT输出D 0 1 2 3 输入X 4 5 6 7 输出D 4 3 2 1 输入X 8 9 10 输出D 2 3 4 所得结果如下:

输入层到中间层的权值:V??0.8584 2.0890 -1.2166 0.2752 -0.3910? 中间层各神经元的阈值:???-14.0302 -9.8340 7.4331 -2.0135 0.5610? 中间层到输出层的权值:W??-0.4675 -1.1234 2.3208 4.6402 -2.2686?

输出层各神经元的阈值:T?1.7623

问题:以下是上证指数2009年2月2日到3月27日的收盘价格,构建一个三层BP神经网络,利用该组信号的6

个过去值预测信号的将来值。

TT精心整理 日期 2009/02/02 2009/02/03 2009/02/04 2009/02/05 2009/02/06 2009/02/09 2009/02/10 2009/02/11 2009/02/12 2009/02/13 2009/02/16 2009/02/17 2009/02/18 2009/02/19 2009/02/20 2009/02/23 2009/02/24 2009/02/25 2009/02/26 2009/02/27 价格 2011.682 2060.812 2107.751 2098.021 2181.241 2224.711 2265.161 2260.822 2248.092 2320.792 2389.392 2319.442 2209.862 2227.132 2261.482 2305.782 2200.652 2206.572 2121.252 2082.852 日期 2009/03/02 2009/03/03 2009/03/04 2009/03/05 2009/03/06 2009/03/09 2009/03/10 2009/03/11 2009/03/12 2009/03/13 2009/03/16 2009/03/17 2009/03/18 2009/03/19 2009/03/20 2009/03/23 2009/03/24 2009/03/25 2009/03/26 2009/03/27 价格 2093.452 2071.432 2198.112 2221.082 2193.012 2118.752 2158.572 2139.021 2133.881 2128.851 2153.291 2218.331 2223.731 2265.761 2281.091 2325.481 2338.421 2291.551 2361.701 2374.44 loaddata3_1.txt; [m,n]=size(data3_1); tsx=data3_1(1:m-1,1); tsx=tsx'; ts=data3_1(2:m,1); ts=ts'; [TSX,TSXps]=mapminmax(tsx,1,2); [TS,TSps]=mapminmax(ts,1,2); TSX=TSX'; figure; plot(ts,'LineWidth',2); title(,'FontSize',12); xlabel(,'FontSize',12); ylabel('归一化后的总游客数/万人','FontSize',12); gridon;

%生成BP网络、利用minmax函数求输入样本范围

net_1=newff(minmax(TS),[10,1],{'tansig','purelin'},'traincgf') %设置训练参数

%显示训练迭代过程(NaN表示不显示,缺省25) %学习率(缺省0.01) %动量因子(缺省0.9) %最大训练次数 %训练要求精度

inputWeights=net_1.IW{1,1}%输入层权值 inputbias=net_1.b{1}%输入层阈值

BP神经网络matlab实例简单而

精心整理p=p1';t=t1';[pn,minp,maxp,tn,mint,maxt]=premnmx(p,t);%原始数据归一化net=newff(minmax(pn),[5,1],{'tansig','purelin'},'traingdx');%设置网络,建立相应的BP网络%训练网络[net,tr]=train(net,
推荐度:
点击下载文档文档为doc格式
9x5z13lcop0weks4q8jb3z01x0bvw200nar
领取福利

微信扫码领取福利

微信扫码分享