深度有趣 | 12 一起来动动手

栏目: Python · 发布时间: 6年前

内容简介:用TensorFlow实现一个手部实时检测器和Inception-v3通过迁移学习实现定制的图片分类任务类似在上节课内容的基础上,添加手部标注数据,并使用预训练好的模型完成迁移学习

用TensorFlow实现一个手部实时检测器

和Inception-v3通过迁移学习实现定制的图片分类任务类似

在上节课内容的基础上,添加手部标注数据,并使用预训练好的模型完成迁移学习

数据

手部检测数据来自于

vision.soic.indiana.edu/projects/eg…

图片使用Google Class拍摄, egohands_data.zip 是一个压缩包,里面共有48个文件夹,分别对应48个不同场景(室内、室外、下棋等)中共计4800张标注图片,标注即全部的手部轮廓点

深度有趣 | 12 一起来动动手

不过我们不需要手动解压这个压缩包,而是使用代码去完成数据的解压和整理工作

egohands_dataset_clean.py 依次完成以下几项工作

  • 如果当前目录下没有 egohands_data.zip 则下载,即调用 download_egohands_dataset()
  • 否则解压 egohands_data.zip 并得到 egohands 文件夹,并对其中的图片数据执行 rename_files()
  • rename_files() 会将所有的图片重命名,加上其父文件夹的名称,避免图片名重复,并调用 generate_csv_files()
  • generate_csv_files() 读取每个场景下的图片,调用 get_bbox_visualize() ,根据标注文件 polygons.mat 绘制手部轮廓和Anchor Box并显示,同时将图片标注转换并存储为csv文件,全部处理完后,再调用 split_data_test_eval_train()
  • split_data_test_eval_train() 完成训练集和测试集的分割,在 images 文件夹中新建 traintest 两个文件夹,分别存放对应的图片和csv标注
  • 完成以上工作后,便可以手动删除一开始解压得到的 egohands 文件夹

也就是从 egohands_data.zip 得到 images 文件夹,在我的笔记本上共花费6分钟左右

接下来调用 generate_tfrecord.py ,将训练集和测试集整理成TFRecord文件

由于这里只需要检测手部,因此物体类别只有一种即 hand ,如果需要定制其他物体检测任务,修改以下代码即可

def class_text_to_int(row_label):
    if row_label == 'hand':
        return 1
    else:
        None
复制代码

运行以下两条命令,生成训练集和测试集对应的TFRecord文件

python generate_tfrecord.py --csv_input=images/train/train_labels.csv  --output_path=retrain/train.record
复制代码
python generate_tfrecord.py --csv_input=images/test/test_labels.csv  --output_path=retrain/test.record
复制代码

模型

依旧是上节课使用的 ssd_mobilenet_v1_coco ,但这里只需要检测手部,所以需要根据定制的标注数据进行迁移学习

retrain 文件夹中内容如下

  • train.recordtest.record :定制物体检测任务的标注数据
  • ssd_mobilenet_v1_coco_11_06_2017 :预训练好的 ssd_mobilenet_v1_coco 模型
  • ssd_mobilenet_v1_coco.config :使用迁移学习训练模型的配置文件
  • hand_label_map.pbtxt :指定检测类别的名称和编号映射
  • retrain.py :迁移学习的训练代码
  • object_detection :一些辅助文件

配置文件 ssd_mobilenet_v1_coco.config 的模版在这里

github.com/tensorflow/…

按需修改配置文件,主要是包括 PATH_TO_BE_CONFIGURED 的配置项

  • num_classes :物体类别的数量,这里为1
  • fine_tune_checkpoint :预训练好的模型checkpoint文件
  • train_input_reader :指定训练数据 input_path 和映射文件路径 label_map_path
  • eval_input_reader :指定测试数据 input_path 和映射文件路径 label_map_path

映射文件 hand_label_map.pbtxt 内容如下,只有一个类别

item {
    id: 1
    name: 'hand'
}
复制代码

使用以下命令开始模型的迁移训练, train_dir 为模型输出路径, pipeline_config_path 为配置项路径

python retrain.py --logtostderr --train_dir=output/ --pipeline_config_path=ssd_mobilenet_v1_coco.config
复制代码

模型迁移训练完毕后,在 output 文件夹中即可看到生成的 .data.index.meta 等模型文件

使用TensorBoard查看模型训练过程,模型总损失如下

tensorboard --logdir='output'
复制代码
深度有趣 | 12 一起来动动手

最后,再使用 export_inference_graph.py 将模型打包成 .pb 文件

  • --pipeline_config_path :配置文件路径
  • --trained_checkpoint_prefix :模型checkpoint路径
  • --output_directory.pb 文件输出路径
python export_inference_graph.py --input_type image_tensor --pipeline_config_path retrain/ssd_mobilenet_v1_coco.config  --trained_checkpoint_prefix retrain/output/model.ckpt-153192 --output_directory hand_detection_inference_graph
复制代码

运行后会生成文件夹 hand_detection_inference_graph ,里面可以找到一个 frozen_inference_graph.pb 文件

应用

现在便可以使用训练好的手部检测模型,实现一个手部实时检测器

主要改动以下三行代码即可

PATH_TO_CKPT = 'hand_detection_inference_graph/frozen_inference_graph.pb'
PATH_TO_LABELS = 'retrain/hand_label_map.pbtxt'
NUM_CLASSES = 1
复制代码

完整代码如下

# -*- coding: utf-8 -*-

import numpy as np
import tensorflow as tf

from utils import label_map_util
from utils import visualization_utils as vis_util

import cv2
cap = cv2.VideoCapture(0)

PATH_TO_CKPT = 'hand_detection_inference_graph/frozen_inference_graph.pb'
PATH_TO_LABELS = 'retrain/hand_label_map.pbtxt'
NUM_CLASSES = 1

detection_graph = tf.Graph()
with detection_graph.as_default():
	od_graph_def = tf.GraphDef()
	with tf.gfile.GFile(PATH_TO_CKPT, 'rb') as fid:
		od_graph_def.ParseFromString(fid.read())
		tf.import_graph_def(od_graph_def, name='')

label_map = label_map_util.load_labelmap(PATH_TO_LABELS)
categories = label_map_util.convert_label_map_to_categories(label_map, max_num_classes=NUM_CLASSES, use_display_name=True)
category_index = label_map_util.create_category_index(categories)

with detection_graph.as_default():
	with tf.Session(graph=detection_graph) as sess:
	    image_tensor = detection_graph.get_tensor_by_name('image_tensor:0')
	    detection_boxes = detection_graph.get_tensor_by_name('detection_boxes:0')
	    detection_scores = detection_graph.get_tensor_by_name('detection_scores:0')
	    detection_classes = detection_graph.get_tensor_by_name('detection_classes:0')
	    num_detections = detection_graph.get_tensor_by_name('num_detections:0')
	    while True:
	    	ret, image_np = cap.read()
	    	image_np = cv2.cvtColor(image_np, cv2.COLOR_BGR2RGB)
	    	image_np_expanded = np.expand_dims(image_np, axis=0)
	    	(boxes, scores, classes, num) = sess.run(
	    		[detection_boxes, detection_scores, detection_classes, num_detections], 
	    		feed_dict={image_tensor: image_np_expanded})
	    	
	    	vis_util.visualize_boxes_and_labels_on_image_array(image_np, np.squeeze(boxes), np.squeeze(classes).astype(np.int32), np.squeeze(scores), category_index, use_normalized_coordinates=True, line_thickness=8)
	    	
	    	cv2.imshow('hand detection', cv2.cvtColor(image_np, cv2.COLOR_RGB2BGR))
	    	if cv2.waitKey(25) & 0xFF == ord('q'):
	    		cap.release()
	    		cv2.destroyAllWindows()
	    		break
复制代码

运行代码后,即可看到摄像头中手部检测的结果

深度有趣 | 12 一起来动动手

定制检测任务

如果希望定制自己的检测任务,准备一些图片,然后手动标注,有个几百条就差不多了

使用 labelImg 进行图片标注,安装方法请参考以下链接

github.com/tzutalin/la…

进入 labelImg 文件夹,使用以下命令,两个参数分别表示图片目录和分类文件路径

python labelImg.py ../imgs/ ../predefined_classes.txt
复制代码

标注界面如下图所示,按 w 开始矩形的绘制,按 Ctrl+S 保存标注至 xml 文件夹

深度有趣 | 12 一起来动动手

之后运行 xml_to_csv.py 即可将 .xml 文件转为 .csv 文件

总之,为了准备TFRecord数据,按照以下步骤操作

  • 新建 traintest 文件夹并分配图片
  • 分别对训练集和测试集图片手工标注
  • 将训练集和测试集对应的多个 .xml 转为一个 .csv
  • 根据原始图片和 .csv 生成对应的TFRecord

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

谷歌的断舍离:互联网企业的破坏式创新

谷歌的断舍离:互联网企业的破坏式创新

[日]辻野晃一郎 / 樊颖 / 机械工业出版社 / 2018-1 / 45.00

本书主要分为三部分: 第一部分主要讨论了世界当下如火如荼的互联网企业进军传统产业大潮,并探讨了传统企业在互联网时代的救赎之路。 第二部分主要探讨了成功体验的反面:速度与迭代,并讨论了传统企业之所以无法实现迭代与快速发展的关键原因。介绍互联网公司如何通过组织精简流程来实现高速竞争时代的机动性。 第三部分讨论了互联网时代究竟需要什么样的人才,传统企业的员工应当怎样投身互联网企业才能避......一起来看看 《谷歌的断舍离:互联网企业的破坏式创新》 这本书的介绍吧!

JS 压缩/解压工具
JS 压缩/解压工具

在线压缩/解压 JS 代码

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

html转js在线工具
html转js在线工具

html转js在线工具