TensorFlow训练网络的方式有何不同,分别适合做什么
Admin 2022-05-24 群英技术资讯 1007 次浏览
这篇文章主要讲解了“TensorFlow训练网络的方式有何不同,分别适合做什么”,文中的讲解内容简单、清晰、详细,对大家学习或是工作可能会有一定的帮助,希望大家阅读完这篇文章能有所收获。下面就请大家跟着小编的思路一起来学习一下吧。TensorFlow训练网络有两种方式,一种是基于tensor(array),另外一种是迭代器
两种方式区别是:
IMAGE_SIZE = 1000
# step1:加载数据集
(train_images, train_labels), (val_images, val_labels) = tf.keras.datasets.mnist.load_data()
# step2:将图像归一化
train_images, val_images = train_images / 255.0, val_images / 255.0
# step3:设置训练集大小
train_images = train_images[:IMAGE_SIZE]
val_images = val_images[:IMAGE_SIZE]
train_labels = train_labels[:IMAGE_SIZE]
val_labels = val_labels[:IMAGE_SIZE]
# step4:将图像的维度变为(IMAGE_SIZE,28,28,1)
train_images = tf.expand_dims(train_images, axis=3)
val_images = tf.expand_dims(val_images, axis=3)
# step5:将图像的尺寸变为(32,32)
train_images = tf.image.resize(train_images, [32, 32])
val_images = tf.image.resize(val_images, [32, 32])
# step6:将数据变为迭代器
train_loader = tf.data.Dataset.from_tensor_slices((train_images, train_labels)).batch(32)
val_loader = tf.data.Dataset.from_tensor_slices((val_images, val_labels)).batch(IMAGE_SIZE)
# step5:导入模型
model = LeNet5()
# 让模型知道输入数据的形式
model.build(input_shape=(1, 32, 32, 1))
# 结局Output Shape为 multiple
model.call(Input(shape=(32, 32, 1)))
# step6:编译模型
model.compile(optimizer='adam',
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
metrics=['accuracy'])
# 权重保存路径
checkpoint_path = "./weight/cp.ckpt"
# 回调函数,用户保存权重
save_callback = tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_path,
save_best_only=True,
save_weights_only=True,
monitor='val_loss',
verbose=0)
EPOCHS = 11
for epoch in range(1, EPOCHS):
# 每个批次训练集误差
train_epoch_loss_avg = tf.keras.metrics.Mean()
# 每个批次训练集精度
train_epoch_accuracy = tf.keras.metrics.SparseCategoricalAccuracy()
# 每个批次验证集误差
val_epoch_loss_avg = tf.keras.metrics.Mean()
# 每个批次验证集精度
val_epoch_accuracy = tf.keras.metrics.SparseCategoricalAccuracy()
for x, y in train_loader:
history = model.fit(x,
y,
validation_data=val_loader,
callbacks=[save_callback],
verbose=0)
# 更新误差,保留上次
train_epoch_loss_avg.update_state(history.history['loss'][0])
# 更新精度,保留上次
train_epoch_accuracy.update_state(y, model(x, training=True))
val_epoch_loss_avg.update_state(history.history['val_loss'][0])
val_epoch_accuracy.update_state(next(iter(val_loader))[1], model(next(iter(val_loader))[0], training=True))
# 使用.result()计算每个批次的误差和精度结果
print("Epoch {:d}: trainLoss: {:.3f}, trainAccuracy: {:.3%} valLoss: {:.3f}, valAccuracy: {:.3%}".format(epoch,
train_epoch_loss_avg.result(),
train_epoch_accuracy.result(),
val_epoch_loss_avg.result(),
val_epoch_accuracy.result()))
import model_sequential
(train_images, train_labels), (test_images, test_labels) = tf.keras.datasets.mnist.load_data()
# step2:将图像归一化
train_images, test_images = train_images / 255.0, test_images / 255.0
# step3:将图像的维度变为(60000,28,28,1)
train_images = tf.expand_dims(train_images, axis=3)
test_images = tf.expand_dims(test_images, axis=3)
# step4:将图像尺寸改为(60000,32,32,1)
train_images = tf.image.resize(train_images, [32, 32])
test_images = tf.image.resize(test_images, [32, 32])
# step5:导入模型
# history = LeNet5()
history = model_sequential.LeNet()
# 让模型知道输入数据的形式
history.build(input_shape=(1, 32, 32, 1))
# history(tf.zeros([1, 32, 32, 1]))
# 结局Output Shape为 multiple
history.call(Input(shape=(32, 32, 1)))
history.summary()
# step6:编译模型
history.compile(optimizer='adam',
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
metrics=['accuracy'])
# 权重保存路径
checkpoint_path = "./weight/cp.ckpt"
# 回调函数,用户保存权重
save_callback = tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_path,
save_best_only=True,
save_weights_only=True,
monitor='val_loss',
verbose=1)
# step7:训练模型
history = history.fit(train_images,
train_labels,
epochs=10,
batch_size=32,
validation_data=(test_images, test_labels),
callbacks=[save_callback])
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。
猜你喜欢
最近工作中需要几个脚本运行其他程序,几乎像一个Windows批处理文件,这篇文章主要给大家介绍了关于如何利用python实现windows的批处理及文件夹操作的相关资料,文中通过实例代码介绍的非常详细,需要的朋友可以参考下
随着深度学习的不断发展,从开山之作Alexnet到VGG,网络结构不断优化,但是在VGG网络研究过程中,人们发现随着网络深度的不断提高,准确率却没有得到提高。人们觉得深度学习到此就停止了,不能继续研究了,但是经过一段时间的发展,残差网络(resnet)解决了这一问题。
callable() 函数:callable() 函数用于检查一个对象是否是可调用的。如果返回 True,object 仍然可能调用失败;但如果返回 False,调用对象 object 绝对不会成功。
这篇文章主要为大家介绍了Caffe卷积神经网络视觉层Vision Layers及参数详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
本文为大家整理了九个Python列表生成式的面试题(从简单到困难排序),可以帮助大家提高列表生成式的理解水平,感兴趣的小伙伴可以学习一下
成为群英会员,开启智能安全云计算之旅
立即注册关注或联系群英网络
7x24小时售前:400-678-4567
7x24小时售后:0668-2555666
24小时QQ客服
群英微信公众号
CNNIC域名投诉举报处理平台
服务电话:010-58813000
服务邮箱:service@cnnic.cn
投诉与建议:0668-2555555
Copyright © QY Network Company Ltd. All Rights Reserved. 2003-2020 群英 版权所有
增值电信经营许可证 : B1.B2-20140078 ICP核准(ICP备案)粤ICP备09006778号 域名注册商资质 粤 D3.1-20240008