将分类网络应用在android中 part2,用自己的训练结果应用android

2024-02-04 03:48

本文主要是介绍将分类网络应用在android中 part2,用自己的训练结果应用android,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

准备工作

编译应用

代码解读

 

准备工作

1.保存checkpoint

可以参考之前的一篇利用tf slim进行分类网络训练的博客,博客地址,如果按照里面的操作步骤进行训练网络,我们会得到保存下来的checkpoint文件。

model.ckpt-5000.data-00000-of-00001 --> 保存了当前参数值
model.ckpt-5000.index --> 保存了当前参数名
model.ckpt-5000.meta --> 保存了当前graph结构图

这样训练的脚本就直接帮我们完成了checkpoint的保存。

但是如果是自己实现的网络结构和网络训练,那我们需要使用下面的代码来保存checkpoint,然后我们同样也会得到这三类文件。

saver = tf.train.Saver()
saver.save(sess, './data/train_logs_1/model.chkp')

2.根据meta生成freezed pb

下面就是要根据生成的checkpoint文件来生成freezed protobuf文件。什么是freezed呢?其实就是将参数的值和graph结合起来保存成pb文件,这样后续使用的时候就只需要直接输入input进行计算就好了,也不用还原网络结构。当然pb文件里面其实都是二进制的信息,也无法还原网络结构的,我们在运算的时候只能按照里面记录的运算方式进行计算。

import tensorflow as tfmeta_path = './data/train_logs_1/model.ckpt-5000.meta' # Your .meta file
output_node_names = ['MobilenetV2/Predictions/Reshape_1']    # Output nodeswith tf.Session() as sess:# Restore the graphsaver = tf.train.import_meta_graph(meta_path)# Load weightssaver.restore(sess, tf.train.latest_checkpoint('./data/train_logs_1'))# Freeze the graphfrozen_graph_def = tf.graph_util.convert_variables_to_constants(sess,sess.graph_def,output_node_names)# Save the frozen graphwith open('./data/train_logs_1/freeze_graph_5000.pb', 'wb') as f:f.write(frozen_graph_def.SerializeToString())

上面的代码可以保存一个freezed_graph.pb文件。在使用convert_variables_to_constants的时候需要一个output_node_names,如果不知道output的具体名字可以先用如下的代码查看

import tensorflow as tfmeta_path = './data/train_logs_1/model.ckpt-5000.meta' # Your .meta filewith tf.Session() as sess:# Restore the graphsaver = tf.train.import_meta_graph(meta_path)# Load weightssaver.restore(sess, tf.train.latest_checkpoint('./data/train_logs_1'))graph = tf.get_default_graph()with open('./data/train_logs_1/operations_5000.txt', 'wb') as f:for op in graph.get_operations():f.writelines(str(op.name) + ',' + str(op.values()) + '\n')

这里会将graph里面包含的所有操作打印出来,因为内容比较多,所以存入文件方便查看,可以从operations_5000.txt中看到在loss之前最后一个输出就是MobilenetV2/Predictions/Reshape_1,所以我们在convert_variables_to_constants中填入的output_node_names为['MobilenetV2/Predictions/Reshape_1'],其实可以填入好多个output,但是我们的分类网络只需要一个。

MobilenetV2/Predictions/Reshape_1,(<tf.Tensor 'MobilenetV2/Predictions/Reshape_1:0' shape=(32, 243) dtype=float32>,)
softmax_cross_entropy_loss/Rank,(<tf.Tensor 'softmax_cross_entropy_loss/Rank:0' shape=() dtype=int32>,)

3.测试freezed pb

前面两个步骤后其实freezed pb文件就已经保存成功了,但是还需要测试一下我们保存的pb文件是否可靠,是否可以通过load这个pb文件就进行预测。

首先我们需要load pb文件

def load_graph(model_file):graph = tf.Graph()graph_def = tf.GraphDef()with open(model_file, "rb") as f:graph_def.ParseFromString(f.read())with graph.as_default():tf.import_graph_def(graph_def)return graph

接着取出input和output的tensor

  input_operation = graph.get_operation_by_name(input_name)output_operation = graph.get_operation_by_name(output_name)

最后sess run就可以得到结果了

  with tf.Session(graph=graph) as sess:results = sess.run(output_operation.outputs[0], {input_operation.outputs[0]: t})results = np.squeeze(results)print(results.shape)top_k = results.argsort()[-5:][::-1]labels = load_labels(label_file)

虽然测试pb文件代码很简单,但是我们可能会遇到两个坑。

第一个可能运行后会报错。因为我们打印出来的results的shape是[32, 243],243是我们分类的类别数,但是为何有32个243的数组呢?

(1, 224, 224, 3)
2018-09-04 18:19:58.424800: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1120] Creating TensorFlow device (/device:GPU:0) -> (device: 0, name: GeForce GTX 1080 Ti, pci bus id: 0000:03:00.0, compute capability: 6.1)
(32, 243)
Traceback (most recent call last):File "test_freeze_meta.py", line 80, in <module>print(labels[i], results[i])
TypeError: only integer scalar arrays can be converted to a scalar index

从我们前面打印出来的output的size可以看出MobilenetV2/Predictions/Reshape_1的shape是(32, 243),是因为32是我们之前training的batch size,而我们保存meta的时候将这个size保存下来了。所以导致我们predict的时候出来的结果也是(32, 243),但是我们其实只预测了一张图片。

如果遇到了这个问题,可以将training时的batch size改成1,基于前面的checkpoint再进行一次训练生成新的meta文件,然后重复上面的步骤进行操作即可。比如我这边会用下面的命令接着进行training

python train_image_classifier.py \--train_dir=./data/train_logs_1 \--dataset_dir=./data/mydata \--dataset_name=mydata \--dataset_split_name=train \--model_name=mobilenet_v2 \--train_image_size=224 \--batch_size=1

会生成model.ckpt-5001.data-00000-of-00001,model.ckpt-5001.index和model.ckpt-5001.meta文件,然后重新生成operations_5001.txt,可以发现里面shape已经变过来了

MobilenetV2/Predictions/Reshape_1,(<tf.Tensor 'MobilenetV2/Predictions/Reshape_1:0' shape=(1, 243) dtype=float32>,)
softmax_cross_entropy_loss/Rank,(<tf.Tensor 'softmax_cross_entropy_loss/Rank:0' shape=() dtype=int32>,)

后面进行预测就不会有报错。但是其实并没有结束,因为我们还可能遇到第二个坑。

预测的结果特别不准确,而且多跑几次会发现每次结果都不一样。这是因为batch normalization和dropout的随机性导致的

    with slim.arg_scope([slim.batch_norm, slim.dropout],is_training=is_training):

代码中在搭建网络的时候很清楚的对这两种操作区分了是否是training状态。所以我们现在的做法是搭建网络的时候传入这个参数为false,然后进行一次training生成checkpoint 5002。

    network_fn = nets_factory.get_network_fn(FLAGS.model_name,num_classes=(dataset.num_classes - FLAGS.labels_offset),weight_decay=FLAGS.weight_decay,is_training=False)

如果对5002 checkpoint进行评估会发现结果是非常不准确的,没关系,我们只需要用到他的meta文件。

然后在用第二步中的操作生成freezed pb文件

meta_path = './data/train_logs_1/model.ckpt-5002.meta' # Your .meta file#这里restore的checkpoint需要是准确率比较高的checkpoint,比如ckpt-5001
#如果让latest_checkpoint取到的是5001呢,很简单,修改train_logs_1目录下的checkpoint文件
#修改model_checkpoint_path: "model.ckpt-5001",这样就会自动取5001为checkpoint来恢复数据了
saver.restore(sess, tf.train.latest_checkpoint('./data/train_logs_1'))

然后再进行预测,一切都正常了。比如预测file_name = "./backup/mydata/km335_back/km335_back.jpg"文件,结果是

(243,)
('150:km335_back', 0.99930513)
('151:km335_front', 0.00019936822)
('191:km711_front', 0.00018467742)
('193:km712_front', 0.00015364563)
('220:kmmerge123_back', 4.9729293e-05)

并不是每个人都会遇到这两个问题,如果是自己搭建网络,自己保存checkpoint我想是可以避免的,但是tf-slim是用slim.learning.train接口进行训练和保存checkpoint,所以保存形式不太可控。

代码实现:freeze_meta.py   test_freeze_meta.py

 

编译应用

如果按照上一篇博文(链接)进行了实操,那这一步就会非常容易了。

首先将上一步编译出来的pb文件,和我们分类的label文件拷贝放入tensorflow/examples/android/assets

然后修改ClassifierActivity.java中的代码如下

  private static final String INPUT_NAME = "MobilenetV2/input";private static final String OUTPUT_NAME = "MobilenetV2/Predictions/Reshape_1";  private static final String MODEL_FILE = "file:///android_asset/freeze_graph_5002.pb";private static final String LABEL_FILE = "file:///android_asset/labels.txt";

接着用bazel进行编译

bazel build //tensorflow/examples/android:tensorflow_coin

生成的apk放在了bazel-bin/tensorflow/examples/android目录下,安装启动即可。

但是我们可能会遇到另外一个坑,安装apk后启动会crash,从adb log看到的错误是

09-05 14:07:58.741 16317 16441 E AndroidRuntime: java.lang.IllegalArgumentException: Cannot assign a device for operation 'MobilenetV2/input': Operation was explicitly assigned to /device:GPU:0 but available devices are [ /job:localhost/replica:0/task:0/device:CPU:0 ]. Make sure the device specification refers to a valid device.
09-05 14:07:58.741 16317 16441 E AndroidRuntime: 	 [[Node: MobilenetV2/input = Identity[T=DT_FLOAT, _device="/device:GPU:0"](fifo_queue_Dequeue)]]

这是因为我们训练的时候用的是GPU,保存的pb中指定了用GPU进行load,而手机中只有CPU,所以所发生错误。

改动方法是训练的时候添加一个flag --clone_on_cpu=True,就可以将我们的meta保存device指定CPU。

 

代码解读

android代码中关于分类网络的主要是两个文件,一个是ClassifierActivity.java,另一个是TensorFlowImageClassifier.java

1.ClassifierActivity.java

这个文件主要负责camera的preview,将preview中的图片传递给TensorFlowImageClassifier进行分类网络的预测,最后显示预测结果。

# 创建classifier实例
classifier =TensorFlowImageClassifier.create(getAssets(),MODEL_FILE,LABEL_FILE,INPUT_SIZE,IMAGE_MEAN,IMAGE_STD,INPUT_NAME,OUTPUT_NAME);# 调用recognizeImage进行图像识别
final List<Classifier.Recognition> results = classifier.recognizeImage(croppedBitmap);# 显示预测结果
resultsView.setResults(results);

2.TensorFlowImageClassifier.java

主要负责调用TensorFlowInferenceInterface类的接口进行预测。

# 实例化TensorFlowInferenceInterface,同时会将model载入
c.inferenceInterface = new TensorFlowInferenceInterface(assetManager, modelFilename);# 传入input的image数据
inferenceInterface.feed(inputName, floatValues, 1, inputSize, inputSize, 3);# 进行计算
inferenceInterface.run(outputNames, logStats);#取出计算结果
inferenceInterface.fetch(outputName, outputs);

 

以上就是全部内容,如果在操作过程中遇到了任何问题可以给我留言,谢谢阅读。

这篇关于将分类网络应用在android中 part2,用自己的训练结果应用android的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/676276

相关文章

PHP应用中处理限流和API节流的最佳实践

《PHP应用中处理限流和API节流的最佳实践》限流和API节流对于确保Web应用程序的可靠性、安全性和可扩展性至关重要,本文将详细介绍PHP应用中处理限流和API节流的最佳实践,下面就来和小编一起学习... 目录限流的重要性在 php 中实施限流的最佳实践使用集中式存储进行状态管理(如 Redis)采用滑动

深入浅出Spring中的@Autowired自动注入的工作原理及实践应用

《深入浅出Spring中的@Autowired自动注入的工作原理及实践应用》在Spring框架的学习旅程中,@Autowired无疑是一个高频出现却又让初学者头疼的注解,它看似简单,却蕴含着Sprin... 目录深入浅出Spring中的@Autowired:自动注入的奥秘什么是依赖注入?@Autowired

Android协程高级用法大全

《Android协程高级用法大全》这篇文章给大家介绍Android协程高级用法大全,本文结合实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友跟随小编一起学习吧... 目录1️⃣ 协程作用域(CoroutineScope)与生命周期绑定Activity/Fragment 中手

PostgreSQL简介及实战应用

《PostgreSQL简介及实战应用》PostgreSQL是一种功能强大的开源关系型数据库管理系统,以其稳定性、高性能、扩展性和复杂查询能力在众多项目中得到广泛应用,本文将从基础概念讲起,逐步深入到高... 目录前言1. PostgreSQL基础1.1 PostgreSQL简介1.2 基础语法1.3 数据库

Python中的filter() 函数的工作原理及应用技巧

《Python中的filter()函数的工作原理及应用技巧》Python的filter()函数用于筛选序列元素,返回迭代器,适合函数式编程,相比列表推导式,内存更优,尤其适用于大数据集,结合lamb... 目录前言一、基本概念基本语法二、使用方式1. 使用 lambda 函数2. 使用普通函数3. 使用 N

Python中yield的用法和实际应用示例

《Python中yield的用法和实际应用示例》在Python中,yield关键字主要用于生成器函数(generatorfunctions)中,其目的是使函数能够像迭代器一样工作,即可以被遍历,但不会... 目录python中yield的用法详解一、引言二、yield的基本用法1、yield与生成器2、yi

Python多线程应用中的卡死问题优化方案指南

《Python多线程应用中的卡死问题优化方案指南》在利用Python语言开发某查询软件时,遇到了点击搜索按钮后软件卡死的问题,本文将简单分析一下出现的原因以及对应的优化方案,希望对大家有所帮助... 目录问题描述优化方案1. 网络请求优化2. 多线程架构优化3. 全局异常处理4. 配置管理优化优化效果1.

从基础到高阶详解Python多态实战应用指南

《从基础到高阶详解Python多态实战应用指南》这篇文章主要从基础到高阶为大家详细介绍Python中多态的相关应用与技巧,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、多态的本质:python的“鸭子类型”哲学二、多态的三大实战场景场景1:数据处理管道——统一处理不同数据格式

Android 缓存日志Logcat导出与分析最佳实践

《Android缓存日志Logcat导出与分析最佳实践》本文全面介绍AndroidLogcat缓存日志的导出与分析方法,涵盖按进程、缓冲区类型及日志级别过滤,自动化工具使用,常见问题解决方案和最佳实... 目录android 缓存日志(Logcat)导出与分析全攻略为什么要导出缓存日志?按需过滤导出1. 按

Java Stream 的 Collectors.toMap高级应用与最佳实践

《JavaStream的Collectors.toMap高级应用与最佳实践》文章讲解JavaStreamAPI中Collectors.toMap的使用,涵盖基础语法、键冲突处理、自定义Map... 目录一、基础用法回顾二、处理键冲突三、自定义 Map 实现类型四、处理 null 值五、复杂值类型转换六、处理