资讯

精准传达 • 有效沟通

从品牌网站建设到网络营销策划,从策略到执行的一站式服务

模糊神经网络java代码,神经网络 java

求完整的BP神经网络C++/java代码。最好有比较完整的注释和测试用例

你只要把训练步骤熟悉一下,源码一点不难。建议看下《神经网络原理》哈根,有一章叫 一个说明性实例 ,然后第四章有BP完整进化案例(多层感知器那章)。还有一本书《神经网络设计》,国内的书无出其右…好运!

创新互联是专业的松溪网站建设公司,松溪接单;提供成都做网站、成都网站建设,网页设计,网站设计,建网站,PHP网站建设等专业做网站服务;采用PHP框架,可快速的进行松溪网站开发网页制作和功能扩展;专业做搜索引擎喜爱的网站,专业的做网站团队,希望更多企业前来合作!

rbf神经网络在java中如何实现原代码

rbf神经网络有多种学习策略,首先选取中心,可以随机选,也可采用K均值聚类,然后学习权值,可采用伪逆法(涉及矩阵的奇异值分解),也可以采用最小均方误差法,或者进化算法,上述方法中心是固定的,也可采用梯度下降法同时学习中心、宽度、权值,这个比较复杂。具体参考《神经网络原理》。

你用Java写可以参考Weka,其完全开源,不过我没有看过源码,不知其用何种学习策略。最近用C++写了一个简单的rbf,即固定中心、最小均方误差法学习权值,但我发现采用K均值聚类选中心跟随机选没有什么区别,不知二者有何区别?自己写伪逆法对于我来说基本不可能,及其复杂,我看到过某人写了个天书般的程序,一个函数500行。

希望对你有帮助,如果你有新发现,欢迎与我探讨,国内估计没多少人真正自己写过RBF,都用MATLAB代入了事。

如何用70行Java代码实现神经网络算法

如何用70行Java代码实现神经网络算法

import java.util.Random;

public class BpDeep{

public double[][] layer;//神经网络各层节点

public double[][] layerErr;//神经网络各节点误差

public double[][][] layer_weight;//各层节点权重

public double[][][] layer_weight_delta;//各层节点权重动量

public double mobp;//动量系数

public double rate;//学习系数

public BpDeep(int[] layernum, double rate, double mobp){

this.mobp = mobp;

this.rate = rate;

layer = new double[layernum.length][];

layerErr = new double[layernum.length][];

layer_weight = new double[layernum.length][][];

layer_weight_delta = new double[layernum.length][][];

Random random = new Random();

for(int l=0;llayernum.length;l++){

layer[l]=new double[layernum[l]];

layerErr[l]=new double[layernum[l]];

if(l+1layernum.length){

layer_weight[l]=new double[layernum[l]+1][layernum[l+1]];

layer_weight_delta[l]=new double[layernum[l]+1][layernum[l+1]];

for(int j=0;jlayernum[l]+1;j++)

for(int i=0;ilayernum[l+1];i++)

layer_weight[l][j][i]=random.nextDouble();//随机初始化权重

}

}

}

//逐层向前计算输出

public double[] computeOut(double[] in){

for(int l=1;llayer.length;l++){

for(int j=0;jlayer[l].length;j++){

double z=layer_weight[l-1][layer[l-1].length][j];

for(int i=0;ilayer[l-1].length;i++){

layer[l-1][i]=l==1?in[i]:layer[l-1][i];

z+=layer_weight[l-1][i][j]*layer[l-1][i];

}

layer[l][j]=1/(1+Math.exp(-z));

}

}

return layer[layer.length-1];

}

//逐层反向计算误差并修改权重

public void updateWeight(double[] tar){

int l=layer.length-1;

for(int j=0;jlayerErr[l].length;j++)

layerErr[l][j]=layer[l][j]*(1-layer[l][j])*(tar[j]-layer[l][j]);

while(l--0){

for(int j=0;jlayerErr[l].length;j++){

double z = 0.0;

for(int i=0;ilayerErr[l+1].length;i++){

z=z+l0?layerErr[l+1][i]*layer_weight[l][j][i]:0;

layer_weight_delta[l][j][i]= mobp*layer_weight_delta[l][j][i]+rate*layerErr[l+1][i]*layer[l][j];//隐含层动量调整

layer_weight[l][j][i]+=layer_weight_delta[l][j][i];//隐含层权重调整

if(j==layerErr[l].length-1){

layer_weight_delta[l][j+1][i]= mobp*layer_weight_delta[l][j+1][i]+rate*layerErr[l+1][i];//截距动量调整

layer_weight[l][j+1][i]+=layer_weight_delta[l][j+1][i];//截距权重调整

}

}

layerErr[l][j]=z*layer[l][j]*(1-layer[l][j]);//记录误差

}

}

}

public void train(double[] in, double[] tar){

double[] out = computeOut(in);

updateWeight(tar);

}

}

如何用70行Java代码实现深度神经网络算法

matlab有神经网络和遗传算法的工具箱,我没用过,不过你的问题看起来也很基础的,应该容易做

用MATLAB做的模糊神经网络代码

您好,是这样的:

经过训练后的参数比较差,用原数据输入训练好的网络,得出结果和要的结果误差很大,不明白是怎么回事?

还有要是多输入多输出这段程序该怎么改?模糊神经网络可以用matlab工具箱实现吗?

还有输入数据差别比较大(就是大小差异大)是不是要进行归一化再学习训练呢?

求解,求解答!

对于你的帮助不胜感激!

clear all

clc

close all

tic,

%[x,y]=data;

x=[1 2 3 4 5 6 7 8;

-1 -2 -3 -4 -5 -6 -7 -8];

y=[2 3 4 5 6 7 8 9]; %%%%%--数据显示,输入为-两输入,输出为-单输出。--------样本为p2组

[p1,p2]=size(x);

% 隶属度函数个数

k=7;

% 初始化四个隶属度函数的参数A,B及输出层初始权值W

for i=1:p1;

for j=1:k;

m(i,j)=1+0.6*rand(1);

b(i,j)=1+0.6*rand(1);

end

end

for j=1:k*k;

w(j)=1+rand(1);

end

%%%---推理计算输出值

for q=1:p2;

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%-----用同一隶属度参数对 输入样本 X 累计计算

% 选用高斯函数作为隶属度,求隶属度,共 size(x,2)+k 个。x(1) K个,x(2) K个

for i=1:p1;

for j=1:k;

u(i,j)=gaussmf(x(i,q),[m(i,j),b(i,j)]);

end

end

% 模糊推理计算:a21,a22.几个隶属度函数,得出几个值,此处已知输入为2

%%%%----由以前的取小做法改为相乘—prod(x,1) or prod(x,2)———

v=[];

for i=1:k

for j=1:k

v=[v,u(1,i)*u(2,j)];

end

end

% 归一化计算模糊推理的值;相当于已经除去了经典去模糊输出的分母值

for i=1:length(v);

v1(i)=v(i)/sum(v);

end

% 系统输出

% out1(q)=w*v';

% e(q)=(y(q)-out1(q));

% end

% out=out1

out1(q)=w*v1';

e(q)=y(q)-out1(q);

end

out=out1;

%- 三。参数修正过程。 增加方式,非批处理方式迭代

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%%%%%%%%%%%%-----------------------------误差反向传播过程--------------------------------------------

% 取误差函数:E=(1/2)*sumsqr(t-y)

E=(1/2)*sumsqr(y-out);

EE=E;

% e=sum(y-out)

lr=0.3; % c2=zeros(2,2);

%%%%----------------------------------------误差反传后的参数修正过程-------------------

r=1; %

p=1;

s=1000; %

% e(r)=y(r)-out(r);

while p=s EE0.05

%%%%%%%%%%%%%_____隶属度参数 M. B 输出层权值参数 W 的修正过程_____%%%%%%%%%%%%

%%1.--W

wc=zeros(1,k*k);

for i=1:k*k;

wc(i)=-lr*e(r)*v1(i);

end

%%2.--M

mc=zeros(p1,k);

for i=1:p1;

for j=1:k;

mc(i,j)=2*lr*e(r) * w(j) * (v(j)/u(i,j)) * exp(-((x(i,r)-m(i,j)).^2)/(b(i,j).^2))* (x(i,r)-m(i,j))/(b(i,j).^2);

end

end

%%3.--B

bc=zeros(p1,k);

for i=1:p1;

for j=1:k;

bc(i,j)=2*lr*e(r)* w(j) * (v(j)/u(i,j)) * exp(-((x(i,r)-m(i,j)).^2)/(b(i,j).^2)) * ((x(i,r)-m(i,j)).^2)/(b(i,j).^3);

end

end

% 4.参数修正 m b w

m=m-mc;

b=b-bc;

w=w-wc;

%%%%%%%%%%%_______利用修正后的参数重新计算_____________%%%%%%%%%%%%%%%%%%%%%

% 5.利用修正过的参数重新计算输出

for q=1:p2;

for i=1:p1;

for j=1:k;

u(i,j)=gaussmf(x(i,q),[m(i,j),b(i,j)]);

end

end

v=[];

for i=1:7

for j=1:7

v=[v,u(1,i)*u(2,j)];

end

end

% 归一化计算模糊推理的值;相当于已经除去了经典去模糊输出的分母值

for i=1:length(v)

v1(i)=v(i)/sum(v);

end

out1(q)=w*v1';

end

out=out1;

p=p+1;

EE=(1/2)*sumsqr(y-out);

E(p)=EE;

r=r+1;

if rp2

r=1;

end

e(r)=(y(r)-out(r));

end

%%%%%%%%%%%%%%%%%%%________________当误差或迭代步数满足要求后得到结果_________________%%%%%%

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

m,b,w,E_out=EE,e

epoch=1:size(E,2);

figure

plot(epoch,E,'-r');

% plot(epoch,out(1),'b');

% axis([0 1.5*s min(E) max(E)]);

% set(gca,'fontsize',8);

% set(gca,'xtick',0:s/10:1.5*s);

%set(gca,'ytick',1e-30:1e5:1e5);

%set(gcf,'color','b')

title('误差变化曲线');xlabel('步数');ylabel('误差');

toc

%% %% 泛化过程

急求BP神经网络算法,用java实现!!!

见附件,一个基本的用java编写的BP网络代码。

BP(Back Propagation)神经网络是86年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hidden layer)和输出层(output layer)。


文章标题:模糊神经网络java代码,神经网络 java
URL标题:http://cdkjz.cn/article/phpsps.html
多年建站经验

多一份参考,总有益处

联系快上网,免费获得专属《策划方案》及报价

咨询相关问题或预约面谈,可以通过以下方式与我们联系

大客户专线   成都:13518219792   座机:028-86922220