本篇文章为大家展示了基于的强预测器设计是怎么样的,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。 Adaboost方法不仅可以用语设计强分类器,还可以用于设计强预测器。 强预测器设计思路与强分类器设计类似,都是先富裕测试样本权重,然后根据弱预测器预测结果调整测试样本权重并确定弱预测器权重,最后把弱预测器序列作为强预测器。不同的是在强预测器中增加预测错类别样本的权重,增加预测误差超过阀值的样本权重。 仍然预测之前预测的函数 %% 清空环境变量 clc clear
%% 下载数据 load data1 input output
%% 权重初始化 k=rand(1,2000); [m,n]=sort(k);
%训练样本 input_train=input(n(1:1900),:)'; output_train=output(n(1:1900),:)';
%测试样本 input_test=input(n(1901:2000),:)'; output_test=output(n(1901:2000),:)';
%样本权重 [mm,nn]=size(input_train); D(1,:)=ones(1,nn)/nn;
%训练样本归一化 [inputn,inputps]=mapminmax(input_train); [outputn,outputps]=mapminmax(output_train);
K=10; for i=1:K %弱预测器训练 net=newff(inputn,outputn,5); net.trainParam.epochs=20; net.trainParam.lr=0.1; net=train(net,inputn,outputn); %弱预测器预测
an1=sim(net,inputn); BPoutput=mapminmax('reverse',an1,outputps); %预测误差 erroryc(i,:)=output_train-BPoutput; %测试数据预测 inputn1=mapminmax('apply',input_test,inputps); an2=sim(net,inputn1); test_simu(i,:)=mapminmax('reverse',an2,outputps); %调整D值 Error(i)=0; for j=1:nn if abs(erroryc(i,j))>0.2 %较大误差 Error(i)=Error(i)+D(i,j); D(i+1,j)=D(i,j)*1.1; else D(i+1,j)=D(i,j); end end %计算弱预测器权重 at(i)=0.5/exp(abs(Error(i))); %D值归一化 D(i+1,:)=D(i+1,:)/sum(D(i+1,:)); end
%% 强预测器预测 at=at/sum(at); %% 结果统计
%强分离器效果 output=at*test_simu; error=output_test-output; plot(abs(error),'-*') hold on for i=1:8 error1(i,:)=test_simu(i,:)-output; end plot(mean(abs(error1)),'-or')
title('强预测器预测误差绝对值','fontsize',12) xlabel('预测样本','fontsize',12) ylabel('误差绝对值','fontsize',12) legend('强预测器预测','弱预测器预测') 上述内容就是基于的强预测器设计是怎么样的,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注天达云行业资讯频道。
|