内容简介:原文标题:LEMNA: Explaining Deep Learning based Security Applications
作者: {WJN}@ArkTeam
原文标题:
LEMNA: Explaining Deep Learning based Security Applications
原文作者:
Wenbo Guo, Dongliang Mu, Jun Xu, Purui Su, Gang Wang, Xinyu Xing
原文出处: CCS’2018 ( Best Paper )
原文链接: https://dl.acm.org/citation.cfm?doid=3243734.3243792
深度学习模型不可解释性极大地限制了其在安全应用中的使用。尤其是黑盒场景下,开发人员很难知道模型为什么无效、究竟学习到了什么、如何修改等问题。因此很多学者一直致力于深度学习可解释性的研究,也陆续出现了很多针对CNN(常用于图像识别领域)的解释方法。但目前却很少有针对安全领域常用的RNN(序列模型)和MLP(高效)模型的可解释性研究。由于特征之间的依赖度较高,且对解释精度要求较高,现有解释方法很难用于解释安全领域的深度学习模型。
在这样的背景下,论文作者针对安全应用中常用的深度学习模型,提出了具有高解释精度的黑盒解释模型LEMNA(Local Explanation Method using Nonlinear Approximation)。
一、黑盒场景下模型解释问题的转化
模型解释,主要任务是要说明分类器为什么将样本x分类为类别y,在对样本x进行分类时主要依据了哪些特征及各自的权重如何。找到在特征空间中样本x附近的局部分类边界的线性回归估计g(x),g(x)上各部分特征的系数即可看作是各个特征的权重,该权重即可表明对应的特征在模型决策时所起的影响的大小,最终实现分类器的解释。
图 1 黑盒模型解释方法说明
二、论文为了实现针对 RNN/MLP 及高解释精度的特性,所采用的两项技术方法
技术方法 | 公式 | 解释 | 作用 |
Mixture regression model |
各线性回归模型的权重 |
多个线性回归模型的组合,从而能够更好的拟合样本附近的局部决策边界。 | 不需要再假设待解释模型的局部决策边界的线性的(更加贴近真实情况,从而实现了高解释精度)。 |
Fused loss |
L ( f (x), y ) 损失函数 S阈值(超参数) 线性回归模型的参数向量 |
让相关特征的权重值的差距小于一定阈值,强制分类器给相关的特征相同的权重。从而实现相关特征的聚合 | 不需要再假设特征之间是独立的(更加符合安全领域的应用情况)。 |
三、 LEMNA 应用举例
图 2 应用 LEMNA 解释分类器(用于确定二进制函数开始点)
应用 LEMNA 解释分类器(用于确定二进制函数开始点)。其中 83 为真实的函数起点, 0.99 为 RNN 分类器的输出概率。通过将元组 (hex-sequence, 83) 发送给 LEMNA , LEMNA 系统通过对最重要的十六进制进行颜色编码来解释分类决策(特征的重要性从红色降低到黄色)。上图说明 LEMNA 指出函数开始前的十六进制代码” 90 “是 RNN 分类器进行判断的最重要原因。
四、对比实验
论文在实验部分针对二进制逆向工程( RNN 模型),恶意 PDF 检测( MLP 模型)两种安全领域常见的深度学习的应用场景,进行了 LEMNA 的部署和应用。并与此前最优秀的解释模型 LIME[1] 进行对比,结果如下:
( 1 ) 对局部决策边界拟合的准确性
图 2 LIME 与 LEMNA 对局部决策边界拟合的准确性的对比
LIME 表现最好的结果 RMSE(Root Mean Square Error) 为 0.1532 ,仍然比 LEMNA 表现较差的结果 (0.0196) 高出近 10 倍。这一结果表明,作者提出的混合回归模型能够建立一个比简单线性模型更精确的近似。
( 2 )解释精度估计
图 3 LIME 与 LEMNA 解释精度对比,其中
(a) 特征去除测试 : 通过使实例 x 中选择的特征 Fx 无效,构造样本 t(x)1 ;
(b) 特征加强测试 : 从相反的类中随机选择一个实例 r( 即,只要 r 的标签不是 y) ,用 Fx 的特征值替换实例 r 的特征值,构造 t(x)2 ;
(c) 特征生成测试 : 保留所选特性 Fx 的特性值,同时为其余特征随机分配值,构建 t(x)3 。
参考文献
[1] Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. 2016. Why should I trust you?: Explaining the predictions of any classifier. In Proceedings of the 22nd International Conference on Knowledge Discovery and Data Mining (KDD)
以上所述就是小编给大家介绍的《LEMNA:针对安全应用的深度学习黑盒解释模型》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。