资讯

精准传达 • 有效沟通

从品牌网站建设到网络营销策划,从策略到执行的一站式服务

深度学习之神经网络的构建与理解-创新互联

神经网络的构建与理解

让客户满意是我们工作的目标,不断超越客户的期望值来自于我们对这个行业的热爱。我们立志把好的技术通过有效、简单的方式提供给客户,将通过不懈努力成为客户在信息化领域值得信任、有价值的长期合作伙伴,公司提供的服务项目有:域名申请虚拟主机、营销软件、网站建设、皇姑网站维护、网站推广。

一.神经网络基本框架复现

#必须放开头,否则报错。作用:把python新版本中print_function函数的特性导入到当前版本

from __future__ import print_function

import tensorflow.compat.v1 as tf#将v2版本转化成v1版本使用

tf.disable_v2_behavior()

import numpy as np

import matplotlib.pyplot as plt

#Construct a function that adds a neural layer

#inputs指输入,in_size指输入层维度,out_size指输出层维度,activation_function()指激励函数,默认None

def add_layer(inputs,in_size,out_size,activation_function=None):

Weights=tf.Variable(tf.random.normal([in_size,out_size]))#权重

biases=tf.Variable(tf.zeros([1,out_size])+0.1)#偏置,因为一般偏置不为0,于是人为加上0.1

Wx_plus_b=tf.matmul(inputs,Weights)+biases#tf.matmul矩阵相乘

if activation_function is None:

outputs = Wx_plus_b

else:

outputs = activation_function(Wx_plus_b)

return outputs

#Make up some real data

#随机x_data,这里一定要定义dtype,[:,np.newaxis]指降低一个维度

x_data = np.linspace(-1,1,300,dtype=np.float32)[:,np.newaxis]

#概率密度函数np.random.normal(loc,scale,size),loc指分布中心,scale指标准差(越小拟合的越好),size指类型(默认size=None)

noise = np.random.normal(0,0.05,x_data.shape).astype(np.float32)

#real y_data

y_data = np.square(x_data) - 0.5 + noise

#defind placeholder for inputs to network

#此函数可以理解为形参,用于定义过程,在执行的时候再赋具体的值

xs = tf.placeholder(tf.float32,[None,1])#一定要定义tf.float32,系统不默认

ys = tf.placeholder(tf.float32,[None,1])

#add hidden layer

#这里的激励函数为relu函数,指输入层一个神经元,输出层十个神经元

l1 = add_layer(xs,1,10,activation_function = tf.nn.relu)

#add outputs layer

#这里激励函数为None

prediction = add_layer(l1,10,1,activation_function = None)

#the error between real data and prediction

#定义loss,指损失函数总和的平均值,注意这里必须得加上一个reduction_indices=[]。(会说明)

loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),reduction_indices=[1]))

#这里用GradientDescentOptimizer做为优化器,就是梯度下降法

train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

#Activate

sess = tf.Session()#非常重要

#定义全局初始化(两种表示方法:global_variables_initializer,initialize_all_variables)

#建议用global_variables_initializer新版本

init = tf.global_variables_initializer()

sess.run(init)

for i in range(1000):

#train,这里的feed_dict是一个字典,用于导入数据x_data和y_data

sess.run(train_step,feed_dict = {xs : x_data, ys : y_data})

#每50步打印一次

if i % 50 == 0:

print(sess.run(loss,feed_dict = {xs : x_data, ys : y_data}))

显示结果

显然loss不断趋近于0

深度学习之神经网络的构建与理解

部分代码解释郑州专业妇科医院 http://fk.zyfuke.com/

当我们计算loss时必须加上reduction_indices=[1],这是一个函数的处理维度。如果没有这个函数默认值为0,则train_step将会被降维成一个数(0维)

reduction_indices工作原理图

优化器的种类(图片)

新手可以使用GradientDescentOptimizer

进阶一点可以使用MomenttumOptimizer或AdamOptimizer

激励函数的种类(图片)

二.结果可视化

#Visualization of results

fig = plt.figure()#建立一个背景

ax = fig.add_subplot(1,1,1)#建立标注

ax.scatter(x_data , y_data)#scatter指散点

plt.ion()#全局变量时,最好注释掉。作用:使图像连续

plt.show()

for i in range(1000):

# training

sess.run(train_step, feed_dict={xs: x_data, ys: y_data})

if i % 50 == 0:

# to visualize the result and improvement

#指没有图像就跳过(简单理解:先抹去线,再出现下一次线)

try:

ax.lines.remove(lines[0])

except Exception:

pass

prediction_value = sess.run(prediction, feed_dict={xs: x_data})

# plot the prediction

lines = ax.plot(x_data, prediction_value, 'r-', lw=3)#红色,宽度为3

plt.pause(0.1)#指暂停几秒,作者实验表明0.1~0.3可视化效果明显

最终得出效果图

另外有需要云服务器可以了解下创新互联cdcxhl.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


本文标题:深度学习之神经网络的构建与理解-创新互联
分享链接:http://cdkjz.cn/article/ddihdg.html
多年建站经验

多一份参考,总有益处

联系快上网,免费获得专属《策划方案》及报价

咨询相关问题或预约面谈,可以通过以下方式与我们联系

业务热线:400-028-6601 / 大客户专线   成都:13518219792   座机:028-86922220