每日一博 | 基于caffe与MATLAB接口回归分析与可视化

栏目: 编程工具 · 发布时间: 7年前

内容简介:每日一博 | 基于caffe与MATLAB接口回归分析与可视化

如果遇到一些问题,可以在 这里 找下是否有解决方案。本文内容主要分为两部分,第一部分介绍基于caffe的回归分析,包括了数据准备、配置文件等;第二部分介绍了在MATLAB上进行的可视化。(话说本人最近有个课题需要做场景分类,有兴趣可以共同探讨一下)。

Preparation

预装好caffe on windows,并编译成功MATLAB接口。

通过caffe进行回归分析

通过caffe进行回归分析,在实验上主要分成HDF5数据准备、网络设计、训练、测试。该实验已经有网友做过,可以参考: http://www.cnblogs.com/frombeijingwithlove/p/5314042.html

或者查看转载的副本(http://blog.csdn.net/xiaoy_h/article/details/54731122)。但不同的是,本文在实验中某些必要的环节均通过MATLAB实现,而不是 Python 。下文仅对不同的内容进行介绍。

通过MATLAB准备HDF5数据

MATLAB是正经的MATLAB,比如你的数据含有35个输入变量,共10000个 样本;先在MATLAB中创建一个变量,将数据(在此之间别忘了先做scaling)拷贝进去,将得到一个10000x 35的变量,当然标签变量就是10000 x 1的啦;最终得到train_x(10000 x 35)、train_y(10000 x 1)、test_x(600 x 35)、test_y(600 x 1)共四个变量,将他们保存到mat文件中,比如data.mat文件。

然后,通过如下脚本实现h5数据的转换(该脚本修改自CAFFE_ROOT\matlab\hdf5creation\目录下的demo.m):

%% WRITING TO HDF5
filename           =   'train.h5';
load 'data.mat';
num_total_samples  =   size(train_x,1);            %获取样本总数
data_disk          =   train_x';
label_disk         =   train_y';
chunksz            =   100;                        %数据块大小
created_flag       =   false;
totalct            =   0;
for batchno=1:num_total_samples/chunksz
   fprintf('batch no. %d\n', batchno);
   last_read       =   (batchno-1)*chunksz;
   % 在dump到hdf5文件之前模拟内存中放置的最大数据量
   batchdata       =   data_disk(:,last_read+1:last_read+chunksz);
   batchlabs       =   label_disk(:,last_read+1:last_read+chunksz);
   % 存入hdf5
   startloc        =   struct('dat',[1,totalct+1], 'lab',[1,totalct+1]);
   curr_dat_sz     =   store2hdf5(filename, batchdata,batchlabs, ~created_flag, startloc, chunksz);
   created_flag    =   true;                       %设置flag为了只创建一次文件
   totalct         =   curr_dat_sz(end);           %更新数据集大小 (以样本数度量)
end
%显示所存储HDF5文件的结构体
h5disp(filename);
%创建HDF5_DATA_LAYER中使用的list文件
FILE               =   fopen('train.txt', 'w');
fprintf(FILE, '%s', filename);
fclose(FILE);
fprintf('HDF5 filename listed in %s \n','train.txt');

如上是训练集的h5格式生成方式,测试集的如法炮制一个脚本就行啦。至此,将得到四个 文件,分别是train.h5,test.h5,train.txt,test.txt,前面两个为数据集文件,后面两个为数据集文件的路径描述文件,如 果每个phase存在多个数据集的话只要在一个路径描述文件里列出即可。

网络设计

网络设计是能否得到有用模型的关键之一,可以参考一些资料,并根据自身数据的特点合理设计。本文采用如下简单的网络进行介绍:

每日一博 | 基于caffe与MATLAB接口回归分析与可视化

训练和测试

一些主要的步骤在之前提到的博客中都有描述,这里讲一个trick—如何获取训练时的loss曲线。

首先,找到CAFFE_ROOT\src文件夹里的common.cpp文件并修改里面的内容:

1、添加头文件#include<direct.h>

2、定位voidGloballnit函数,在::google::InitGoogleLogging(*(pargv)[0]);下一行添加如下代码:

_mkdir("./log/");
FLAGS_colorlogtostderr =true;                               //设置输出到屏幕的日志显示相应颜色
//如下为设置各类日志信息对应日志文件的文件名前缀
google::SetLogDestination(google::GLOG_FATAL,"./log/log_error_");
google::SetLogDestination(google::GLOG_ERROR,"./log/log_error_");
google::SetLogDestination(google::GLOG_WARNING,"./log/log_error_");
google::SetLogDestination(google::GLOG_INFO,"./log/log_info_");
FLAGS_max_log_size = 1024;                                  //最大日志大小为 1024MB
FLAGS_stop_logging_if_full_disk =true;                      //磁盘写满时,停止日志输出

修改完成后别忘了保存并重新编译caffe.exe,在之后的训练中可在CAFFE_ROOT\log下找到训练日志。

在获得了训练日志后,比如文件名为log_info_20170116-163216.9556,将其复制到CAFFE_ROOT\tools\extra目录下(可以看到同目录下的py程序),接着在该目录下打开命令行,并运行命令:

md logconv
set logfile=log_info_20170116-163216.9556
python parse_log.py %logfile% ./logconv
ren logconv\%logfile%.train %logfile%.csv
pause

然后py程序会将日志转为csv文件,在excel表格中即可绘制loss曲线图:

每日一博 | 基于caffe与MATLAB接口回归分析与可视化

基于MATLAB的模型可视化

网络模型的可视化又可以分为权值可视化(有的人觉得偏置不重要,不过偏置量在有的时候非常重要)和特征图可视化,按照自身应用的需求可以设计不同的可视化样式。

在实验上,可视化的步骤分为deploy文件编写、通过MATLAB接口读取训练好的模型文件、按照自身需求输出权值可视化图和输入样本并生成特征图。

deploy文件编写

通过脚本得到deploy文件的方法网上已经有一些了: http://blog.csdn.net/lanxuecc/article/details/52474476 ,不过貌似使用起来也挺麻烦的,不是通过输入直接输入train.prototxt文件来实现的。该方法有时候还没有直接手写来得简单粗暴: http://blog.csdn.net/sunshine_in_moon/article/details/49472901

从该博客内容可以得知deploy文件编写与train_test.prototxt不同的注意点大致如下:

1、*_deploy.prototxt文件的构造没有test网络中的test模块,只有训练模块

比如不能有如下之类的描述:

include{  phase:TRAIN/TEST  }

2、数据层的写法更加简洁:

input: "data"
input_dim: 1
input_dim: 3
input_dim: 32
input_dim: 32

注意红色部分,那是数据层的名字,没有这个的话,第一个卷积层无法找到数据;接着的四个参数为输入样本的维度。

3、卷积层和全连接层中weight_filler{}与bias_filler{}两个参数不用再填写,因为这两个参数的值由已经训练好的模型caffemodel文件提供。

4、输出层的变化没有了test模块测试精度,具体输出层区别如下:

*_train_test.prototxt文件:
layer{
  name: "loss"
  type: "SoftmaxWithLoss" #注意此处与下面的不同
  bottom: "ip2"
  bottom: "label" #注意标签项在下面没有了,因为下面的预测属于哪个标签,因此不能提供标签
  top: "loss"
}
*_deploy.prototxt文件:
layer {
  name: "prob"
  type: "Softmax"
  bottom: "ip2"
  top: "prob"
}

两个文件中输出层的类型不一样,一个是SoftmaxWithLoss,另一个是Softmax。另外为了方便区分训练与应用输出,训练时输出是loss,应用时是prob(当然,叫别的名也行)。

如果后续在执行这一行(net      =     caffe.Net(model,'test');)MATLAB代码时程序直接崩溃了,那就是因为deploy文件中关于层的内容没有正确编写;而如果 在执行这一行(net.copy_from(weights);)代码时程序直接崩溃了,那可能因为deploy文件中关于神经元输入输出维数的参数没有 写对,比如在data层中input_dim: 3写成了input_dim: 1就会出错。

最后,可以参考下某个网络修改前后各层的对照(右边是deploy文件):

每日一博 | 基于caffe与MATLAB接口回归分析与可视化

注意一下,本人在这里省去了prob层(一个softmax层),有时候分析网络模型有这个层是一种累赘,视具体情况可以去掉;同时,由于softmax层没有权值等参数,所以在导入MATLAB中时程序并不会崩溃。

通过MATLAB接口读取训练好的模型文件

如下代码实现了测试样本导入、网络导入和权值导入等:

load 'data.mat';                                        %加载样本数据
caffe.set_mode_cpu();                                   %设置为CPU模式
model       =   'deploy.prototxt';                      %模型-网络
weights    =   'snapshot/_iter_10000.caffemodel';       %模型-权值
net            =   caffe.Net(model,'test');
net.copy_from(weights);                                 %得到训练好的权重参数

按照自身需求输出权值可视化图

上面已经完成好了权值等参数的导入,下面将首先获取层名,然后逐层可视化权值,废话不多说,直接上代码:

layernames =   net.layer_names;                     %获取所有层名
magnifys   =   3;                                   %卷积核放大倍数,用于可视化放大
for li =   1:size(layernames,1)
%    disp(layernames{li});
   if strcmp(layernames{li}(1:2),'ip') ||strcmp(layernames{li}(1:2),'fc')  %fc层
    %还没想好怎么plot
   elseif strcmp(layernames{li}(1:4),'data')        %数据层,跳过       
   elseif strcmp(layernames{li}(1:4),'conv')        %卷积层
       weight  =        net.layers(layernames{li}).params(1).get_data();
       bias    =  net.layers(layernames{li}).params(2).get_data();
       %归一化
       weight  =   weight-min(weight(:));
       weight  =   weight./max(weight(:));
       [ker_h,ker_w,prev_outnum,this_outnum]  =   size(weight);
       [grid_h,grid_w]     =   getgridsize(prev_outnum);
        for thisi=1:this_outnum
           weight_map  =  zeros(magnifys*ker_h*grid_h+grid_h,magnifys*ker_w*grid_w+grid_w);
           for gridhi=1:grid_h
                for gridwi=1:grid_w
                    weight_map((gridhi-1)*(magnifys*ker_h+1)+1:gridhi*(magnifys*ker_h+1)-1,(gridwi-1)*(magnifys*ker_w+1)+1:gridwi*(magnifys*ker_w+1)-1)=imresize(weight(:,:,(gridhi-1)*grid_w+gridwi,thisi),magnifys,'nearest');
                end
           end
           imwrite(uint8(weight_map(1:end-1,1:end-1)*255),sprintf('layer_%s_this_%d.bmp',layernames{li},thisi));
       end
   elseif strcmp(layernames{li}(1:4),'pool')        %池化层
    %无参,不需要plot       
   end
end

上述代码中,注意getgridsize是用于确定卷积层中整张大图里卷积核排列的行列数,该函数可以自行发挥。

最后,由于回归分析网络需要结合具体的变量来解释权值图,故只能放一下lenet模型权值可视化的结果啦(只有conv层的,fc层需要结合具体变量):

每日一博 | 基于caffe与MATLAB接口回归分析与可视化

输入样本并生成特征图

1、首先随意传入一个样本:

res = net.forward({test_x(1,:)});

注意传入的是一个cell,而不是常见的matrix。前向计算后,在网络各层就会产生特征图。

2、上文中我们都知道,权值数据的获取方式为:

weight = net.layers(layernames{li}).params(1).get_data();

而特征图的获取也类似,为:

featmap = net.blobs(layernames{li}).get_data();

其它代码与权值可视化基本相同,网友们可以自由发挥。

最后,由于回归分析网络需要结合具体的变量来解释特征图,故只能放一下lenet模型特征图可视化的结果啦:

每日一博 | 基于caffe与MATLAB接口回归分析与可视化

每日一博 | 基于caffe与MATLAB接口回归分析与可视化


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

SQL必知必会

SQL必知必会

福达 (Ben Forta) / 钟鸣、刘晓霞 / 人民邮电出版社 / 2013-5-1 / 29.00元

SQL语法简洁,使用方式灵活,功能强大,已经成为当今程序员不可或缺的技能。 本书是深受世界各地读者欢迎的SQL经典畅销书,内容丰富,文字简洁明快,针对Oracle、SQL Server、MySQL、DB2、PostgreSQL、SQLite等各种主流数据库提供了大量简明的实例。与其他同类图书不同,它没有过多阐述数据库基础理论,而是专门针对一线软件开发人员,直接从SQL SELECT开始,讲述......一起来看看 《SQL必知必会》 这本书的介绍吧!

Base64 编码/解码
Base64 编码/解码

Base64 编码/解码

RGB HSV 转换
RGB HSV 转换

RGB HSV 互转工具

RGB CMYK 转换工具
RGB CMYK 转换工具

RGB CMYK 互转工具