系列博客链接:
(一)TensorFlow框架介绍:https://www.cnblogs.com/kongweisi/p/11038395.html
(二)TensorFlow框架之图与TensorBoard:https://www.cnblogs.com/kongweisi/p/11038517.html
(三)TensorFlow框架之会话:https://www.cnblogs.com/kongweisi/p/11038550.html
(四)TensorFlow框架之张量:https://www.cnblogs.com/kongweisi/p/11039237.html
(五)TensorFlow框架之变量OP:https://www.cnblogs.com/kongweisi/p/11039254.html
本文概述:
根据数据建立回归模型,w1x1+w2x2+…..+b = y,通过真实值与预测值之间建立误差,使用梯度下降优化得到损失最小对应的权重和偏置。
最终确定模型的权重和偏置参数。最后可以用这些参数进行预测。
这里将数据分布的规律确定,是为了使我们训练出的参数跟真实的参数(即0.7和0.8)比较是否训练准确
运算
矩阵运算
平方
均值
梯度下降优化
tf.train.GradientDescentOptimizer(learning_rate)
def inputs(self):
"""
__获取特征值目标值数据数据
:return:
"""
x_data = tf.random_normal([100, 1], mean=1.0, stddev=1.0, name="x_data")
y_true = tf.matmul(x_data, [[0.7]]) + 0.8
return x\_data, y\_true
def inference(self, feature):
"""
根据输入数据建立模型
:param feature:
:param label:
:return:
"""
with tf.variable\_scope("linea\_model"):
# 2、建立回归模型,分析别人的数据的特征数量--->权重数量, 偏置b
# 由于有梯度下降算法优化,所以一开始给随机的参数,权重和偏置
# 被优化的参数,必须得使用变量op去定义
# 变量初始化权重和偏置
# weight 2维\[1, 1\],输入的x是\[100, 1\]的列向量 bias \[1\]-->这里的偏置直接初始化为0
# x*w + b ----> y_predict
# 变量op当中会有trainable参数决定是否训练
self.weight = tf.Variable(tf.random_normal([1, 1], mean=0.0, stddev=1.0),
name="weights")
self.bias = tf.Variable(0.0, name='biases')
# 建立回归公式去得出预测结果
y\_predict = tf.matmul(feature, self.weight) + self.bias
return y\_predict
def loss(self, y\_true, y\_predict):
"""
目标值和真实值计算损失
:return: loss
"""
# 3、求出我们模型跟真实数据之间的损失
# 均方误差公式--->MSE
loss = tf.reduce\_mean(tf.square(y\_true - y\_predict))
return loss
def sgd\_op(self, loss):
"""
获取训练OP
:return:
"""
# 4、使用梯度下降优化器优化
# 填充学习率:0 ~ 1 学习率是非常小,
# 学习率大小决定你到达损失一个步数多少
# 最小化损失---->返回的这个train\_op,是可以训练的,之所以可以训练,是因为之前的变量都是tf.Variable()创建的
train\_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
return train\_op__
学习率越大,训练到较好结果的步长越小;学习率越小,训练到较好结果的步长越大。
但是学习过大会出现梯度爆炸现象。关于梯度爆炸/梯度消失 ?
在极端情况下,权重的值变得非常大,以至于溢出,导致 NaN 值 如何解决梯度爆炸问题(深度神经网络当中更容易出现) 1、重新设计网络 2、调整学习率 3、使用梯度截断(在训练过程中检查和限制梯度的大小) 4、使用激活函数
trainable的参数作用,指定是否训练
weight = tf.Variable(tf.random_normal([1, 1], mean=0.0, stddev=1.0), name="weights", trainable=False)
使得代码结构更加清晰,Tensorboard图结构清楚
with tf.variable_scope("lr_model"):
目的:在TensorBoard当中观察模型的参数、损失值等变量值的变化
1、收集变量
2、合并变量写入事件文件
def merge_summary(self, loss):
# 1、收集张量的值
tf.summary.scalar("losses", loss)
tf.summary.histogram("w", self.weight)
tf.summary.histogram('b', self.bias)
# 2、合并变量
merged = tf.summary.merge\_all()
return merged
file_writer = tf.summary.FileWriter("./tmp/summary/", graph=sess.graph)
summary = sess.run(merged)
file_writer.add_summary(summary, i)
tf.train.Saver(var_list=None,max_to_keep=5)
使用
例如:
指定目录+模型名字
saver.save(sess, '/tmp/ckpt/test/myregression.ckpt')
saver.restore(sess, '/tmp/ckpt/test/myregression.ckpt')
如要判断模型是否存在,直接指定目录
checkpoint = tf.train.latest_checkpoint("./tmp/model/")
saver.restore(sess, checkpoint)
前面具体定义的flag_name
# 定义一些常用的命令行参数
tf.app.flags.DEFINE_integer("max_step", 0, "训练模型的步数")
tf.app.flags.DEFINE_string("model_dir", " ", "模型保存的路径+模型名字")
FLAGS = tf.app.flags.FLAGS
for i in range(FLAGS.max_step):
sess.run(train_op)
# 用tensorflow自实现一个线性回归案例
tf.app.flags.DEFINE_integer("max_step", 0, "训练模型的步数")
tf.app.flags.DEFINE_string("model_dir", " ", "模型保存的路径+模型名字")
FLAGS = tf.app.flags.FLAGS
class MyLinearRegression(object):
"""
自实现线性回归
"""
def __init__(self):
pass
def inputs(self):
"""
获取特征值目标值数据数据
:return:
"""
x\_data = tf.random\_normal(\[100, 1\], mean=1.0, stddev=1.0, name="x\_data")
y\_true = tf.matmul(x\_data, \[\[0.7\]\]) + 0.8
return x\_data, y\_true
def inference(self, feature):
"""
根据输入数据建立模型
:param feature:
:param label:
:return:
"""
with tf.variable\_scope("linea\_model"):
# 2、建立回归模型,分析别人的数据的特征数量--->权重数量, 偏置b
# 由于有梯度下降算法优化,所以一开始给随机的参数,权重和偏置
# 被优化的参数,必须得使用变量op去定义
# 变量初始化权重和偏置
# weight 2维\[1, 1\] bias \[1\]
# 变量op当中会有trainable参数决定是否训练
self.weight = tf.Variable(tf.random\_normal(\[1, 1\], mean=0.0, stddev=1.0),
name="weights")
self.bias = tf.Variable(0.0, name='biases')
# 建立回归公式去得出预测结果
y\_predict = tf.matmul(feature, self.weight) + self.bias
return y\_predict
def loss(self, y\_true, y\_predict):
"""
目标值和真实值计算损失
:return: loss
"""
# 3、求出我们模型跟真实数据之间的损失
# 均方误差公式
loss = tf.reduce\_mean(tf.square(y\_true - y\_predict))
return loss
def merge\_summary(self, loss):
# 1、收集张量的值
tf.summary.scalar("losses", loss)
tf.summary.histogram("w", self.weight)
tf.summary.histogram('b', self.bias)
# 2、合并变量
merged = tf.summary.merge\_all()
return merged
def sgd\_op(self, loss):
"""
获取训练OP
:return:
"""
# 4、使用梯度下降优化器优化
# 填充学习率:0 ~ 1 学习率是非常小,
# 学习率大小决定你到达损失一个步数多少
# 最小化损失
train\_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
return train\_op
def train(self):
"""
训练模型
:param loss:
:return:
"""
g = tf.get\_default\_graph()
with g.as\_default():
x\_data, y\_true = self.inputs()
y\_predict = self.inference(x\_data)
loss = self.loss(y\_true, y\_predict)
train\_op = self.sgd\_op(loss)
# 收集观察的结果值
merged = self.merge\_summary(loss)
saver = tf.train.Saver()
with tf.Session() as sess:
sess.run(tf.global\_variables\_initializer())
# 在没训练,模型的参数值
print("初始化的权重:%f, 偏置:%f" % (self.weight.eval(), self.bias.eval()))
# 加载模型
checkpoint = tf.train.latest\_checkpoint("./tmp/model/")
# print(checkpoint)
if checkpoint:
print('Restoring', checkpoint)
saver.restore(sess, checkpoint)
# 开启训练
# 训练的步数(依据模型大小而定)
for i in range(FLAGS.max\_step):
sess.run(train\_op)
# 生成事件文件,观察图结构
file\_writer = tf.summary.FileWriter("./tmp/summary/", graph=sess.graph)
print("训练第%d步之后的损失:%f, 权重:%f, 偏置:%f" % (
i,
loss.eval(),
self.weight.eval(),
self.bias.eval()))
# 运行收集变量的结果
summary = sess.run(merged)
# 添加到文件
file\_writer.add\_summary(summary, i)
if i % 100 == 0:
# 保存的是会话当中的变量op值,其他op定义的值不保存
saver.save(sess, FLAGS.model\_dir)
if __name__ == '__main__':
lr = MyLinearRegression()
lr.train()
注释更详细的版本:
# 导包
import tensorflow as tf
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
tf.app.flags.DEFINE_integer("max_step", 0, "训练模型的步数")
tf.app.flags.DEFINE_string("model_dir", " ", "模型保存的路径+模型名字")
FLAGS = tf.app.flags.FLAGS
class MyLR:
def __init__(self):
# # 学习率
self.learning_rate = 0.1
# # 训练次数
# self.MAX_STEP = 300
def input(self):
'''
获取训练需要的数据
:return: x\_data, y\_true
'''
x\_data = tf.random\_normal(shape=\[100, 1\], mean=0., stddev=1.)
# 矩阵乘法
y\_true = tf.matmul(x\_data, \[\[0.5\]\]) + 1.2
return x\_data, y\_true
def model(self, x\_data):
'''
建模,假设是一个一元一次线性方程
y = x\*w + b
:param x\_data:
:return: self.weight, self.bais
'''
# 增加命名空间:
# 1.代码清晰
# 2.实现共享变量
with tf.variable\_scope("lr\_model"):
# op变量,可训练,可保存
self.weight = tf.Variable(
initial\_value=tf.random\_normal(shape=\[1, 1\], mean=0., stddev=1.),
trainable=True,
name="weight"
)
self.bais = tf.Variable(
initial\_value=0.,
trainable=True,
name="bais"
)
# 建模
y\_predict = tf.matmul(x\_data, self.weight) + self.bais
# 这里只返回y\_predict即可,前面的权重和偏置已经是实例变量
return y\_predict
def loss(self, y\_true, y\_predict):
'''
损失函数
:param y\_true:
:param y\_predict:
:return: loss
'''
with tf.variable\_scope("losses"):
loss = tf.reduce\_mean(tf.square(y\_true - y\_predict))
return loss
def sgd\_op(self, loss):
'''
SGD(批梯度下降优化)
:param loss:
:return: train\_op
'''
train\_op = tf.train.GradientDescentOptimizer(learning\_rate=self.learning\_rate).minimize(loss)
return train\_op
def mergr\_summary(self, loss):
'''
收集张量
:param loss:
:return:
'''
# 1.1收集对于损失函数和准确率等单值变量,标量
tf.summary.scalar("losses", loss)
# 1.2收集高维度张量值,矢量
tf.summary.histogram("w", self.weight)
tf.summary.histogram("b", self.bais)
# 2.合并变量(OP)---> 再拿到会话中运行
merged = tf.summary.merge\_all()
return merged
def train(self):
'''
开启训练
:return:
'''
# 1.获取数据
x\_data, y\_true = self.input()
# 2.将数据传入模型,并获取预测值
y\_predict = self.model(x\_data)
# 3.结合预测值和真实值,获取loss
loss = self.loss(y\_true, y\_predict)
# 4.降低损失,获取train\_op
train\_op = self.sgd\_op(loss)
# 收集要观察的张量
merged = self.mergr\_summary(loss)
# 定义一个保存文件的saverOP,默认保存所有变量
# 可以指定要保存的参数,和保存最近的几个checkpoint文件
saver = tf.train.Saver(var\_list=None, max\_to\_keep=5)
# 开启会话
with tf.Session() as sess:
# 显示初始化变量OP
sess.run(tf.global\_variables\_initializer())
# 创建events文件 默认图一定要写上
# 开启tensorboard的命令:tensorboard --logdir="./tmp01/summary/"
file\_writer = tf.summary.FileWriter(logdir="./tmp01/summary/", graph=sess.graph)
print("未训练的损失: %f, 参数w: %f, b: %f" % (loss.eval(), self.weight.eval(), self.bais.eval()))
# 判断model是否存在
checkpoint = tf.train.latest\_checkpoint("./tmp01/model/")
if checkpoint:
# 在训练之前,加载model(之前训练的,如果有的话),
# 覆盖原来名字一样(原来的w和b)的OP
saver.restore(sess, checkpoint)
# 打印第一次加载的参数
print("第一次加载保存的model的参数w: %f, b: %f" % (self.weight.eval(), self.bais.eval()))
print("以当前model去训练")
# 开启训练
for i in range(FLAGS.max\_step):
# 这一步是关键哦
# 每次迭代都需要运行收集的张量
\_, summary = sess.run(fetches = \[train\_op, merged\])
# 把summary,张量的值写入到events文件当中
file\_writer.add\_summary(summary, i)
print("训练第%f的损失: %d, 参数w: %f, b: %f" % (i, loss.eval(), self.weight.eval(), self.bais.eval()))
# 每隔一百步保存一次model, 保存会话, 指定路径+名字
if i % 100 == 0:
saver.save(sess, FLAGS.model\_dir)
if __name__ == '__main__':
lr = MyLR()
lr.train()
手机扫一扫
移动阅读更方便
你可能感兴趣的文章