解释与改进安全应用场景下的深度异常检测方法
2021-11-02 09:30:00 Author: mp.weixin.qq.com(查看原文) 阅读量:26 收藏

原文作者:Dongqi Han, Zhiliang Wang, Wenqi Chen, Ying Zhong, Su Wang, Han Zhang, Jiahai Yang, Xingang Shi, Xia Yin
原文标题:DeepAID: Interpreting and Improving Deep Learning-basedAnomaly Detection in Security Applications
原文链接:https://arxiv.org/pdf/2109.11495.pdf
笔记作者:[email protected]
文章小编:[email protected]

简介

该文为发表于CCS 2021的DeepAID: Interpreting and Improving Deep Learning-basedAnomaly Detection in Security Applications。无监督深度学习技术已广泛应用于各种与安全相关的异常检测应用中,然而,缺乏可解释性仍旧是在实践中采用深度学习模型的重大障碍之一。现有的解释方法通常用于监督学习模型或非安全领域,并不完全适用于无监督的深度学习模型并且无法满足安全领域的特殊要求。在本篇论文中,作者团队提出了一个被命名为DeepAID的通用框架,旨在解释安全领域中基于深度学习的异常检测系统,以及基于来解释提高这些系统的实用性。

方法

在此篇论文中,作者广泛地研究了应用深度异常检测算法的安全应用场景。安全应用程序通常从非结构化的原始数据开始,例如网络流量和系统日志。这些数据不能直接输入到神经网络中,需要基于特定领域知识的预处理和特征工程。因此作者将经过预处理的原始数据定义为三类:表格数据、时序数据和图结构数据并分别使用自动编码器、循环神经网络和图神经网络进行异常检测。

如上图所示,DeepAIO位于框架图的右侧,主要由解释模块和蒸馏器组成。解释模块针对三种不同类型的安全应用场景分别设计,其通过基于具有安全相关约束的优化问题来对模型进行高质量的解释。具体来说,解释模块通过搜索优化问题最合适的参照对象,该对象被模型视为正常数据,然后,通过研究该异常与其参照对象之间的差异,推导出对该异常的解释。随后利用蒸馏器存储解释信息和专家意见以加强模型与人之间的沟通,使得模型更加透明,让使用者能够调试、理解并信任模型的决策。

实验

在实验阶段,作者其框架的多个方面进行测试,包括:解释性、对模型决策的解读、可调试性、减少误报等。举其中几个来讲,针对Mirai僵尸网络流量中有两个代表性异常特征:执行恶意软件“mirai.exe”收集信息和ARP扫描并横向移动。在使用对Kitsune进行解释时,如下表中所展示的5个由解释器给出的重要特征与专家意见可见,模型已经学习到了预期中的代表性规则。另外,根据上表(c)中提到的与误报相关的数个特征,作者发现Kitsune在相关特征提取的代码实现部分存在一定问题并加以修改,结果如下所示,模型效果在误报方面得到明显改善。除了上述提到有代码问题带来的显示偏差,DeepAID还能改善异常模型学习过程中引起的隐式错误问题。通过修改修改蒸馏器(上),或重新训练模型的方法(下),DeepAID均能比基准方法取得更好的降低误报效果。

安全学术圈招募队友-ing, 有兴趣加入学术圈的请联系secdr#qq.com


文章来源: http://mp.weixin.qq.com/s?__biz=MzU5MTM5MTQ2MA==&mid=2247486751&idx=1&sn=5007c6caa0b3720e6e85d0910315fbd3&chksm=fe2ef294c9597b82ecaf43df2b807b8f552e2b8d38eba4600f45b800153e68702449a19557be#rd
如有侵权请联系:admin#unsafe.sh