Detecting AI trojans using meta neural analysis
Detecting AI trojans using meta neural analysis abstract。
Architecture
在介绍本文架构之前首先介绍一下 元神经元分析(meta neural analysis,mna)的基本概念,具体流程如下图:
与传统的网络不同, mna 不以图像、文本等数据为输入,而是以神经网络为输入训练一个可以预测目标网络属性的分类器,例如成员推理、模型属性推理、训练数据推理等等。具体操作步骤如下:
训练两类影子模型,一类包含属性,一类不包含属性
合成影子模型数据集
使用该数据集训练一个元分类器
本文具体步骤如下:
生成影子模型
对于良性模型,设定不同的模型初始化参数,随机初始化参数
对于后门模型,从通用后门分布中取样投毒,生成后门模型
元训练
设计特征提取函数,获得影子模型的表示向量
设计了一个查询集来提取影子模型的重要表示向量
通过该向量训练元分类器
目标模型检测
给定一个目标模型,首先使用优化的查询集提取模型特征
然后送入元分类器获得结果
影子模型生成 Jumbo Learning - Shadow ...
A Survey on Neural Trojans
A Survey on Neural Trojans abstract。
论文整体思路
该论文将后门攻击大致分为了两类:
数值级
二进制级
数值后门 Numeric-Level Backdoor
数值级别后门是通过修改模型的神经元权重来改变模型的行为的,通常通过嵌入污染的训练数据来达到此效果。
数值级别后门又可以细分为以下几类:
通过训练数据投毒嵌入后门 Trojan Insertion by Training Data Poisoning
通过修改网络计算操作嵌入后门 Trojan Insertion without Poisoning
隐藏后门触发特征 Hiding Trojan Triggers
通过迁移学习嵌入后门 Neural Trojan Insertion in Transfer Learning
二进制后门 Binary-Level Backdoor
二进制级别后门则是通过直接修改控制神经网络训练的代码实现后门嵌入的。
文章给出两个基于供应链的后门嵌入研究,两项研究都是将后门嵌入代码伪装成为正常的插件,然后通过该插件控制模型训练行为,达到嵌入模型后门的效果。
...
Backdoor Attacks and Countermeasures on Deep Learning: A Comprehensive Review
Backdoor Attacks and Countermeasures on Deep Learning: A Comprehensive Review abstract。
abstract
文章通过目录和表格等多种形式对相关文献进行分类,看起来相对清晰。具体 如下图:
目录
An Overview of Backdoor Attacks Against Deep Neural Networks and Possible Defences
An Overview of Backdoor Attacks Against Deep Neural Networks and Possible Defences abstract。
abstract
文章首先介绍了威胁模型,然后根据攻击者对模型训练过程不同的控制程度,分类而成的各种攻击方式,最后是防御方式与公开讨论。本文主要讨论能够控制训练过程的后门攻击,而不包括那些可以直接修改参数的后门攻击,该类攻击具体如下:
J. Dumford and W. J. Scheirer, “Backdooring convolutional neural networks via targeted weight perturbations,” in 2020 IEEE International Joint Conference on Biometrics, IJCB 2020, Houston, TX, USA, September 28 - October 1, 2020. IEEE, 2020, pp. 1–9. [Online]. Available: https://doi.org ...
Deep k-NN Defense Against Clean-label Data Poisoning Attacks
Deep k-NN Defense Against Clean-label Data Poisoning Attacks abstract。
原理
基于 k-NN 的异常样本点检测,检验当前样本的 k 个邻近样本,如果标签不一致则标记为异常样本,进行过滤。
实现的防御方法
L2-Norm Outlier Defense
One-Class SVM Defense
Random Point Eviction Defense
Adversarial Training Defense
仓库地址: https://github.com/neeharperi/DeepKNNDefense
Django+Vue+Mysql服务器搭建
Django+Vue+Mysql服务器搭建教程。
Django 项目初始化
初始化 Django 项目
首先创建虚拟环境,然后在虚拟环境中安装 django:
123python -m venv venvsource venv/bin/activatepip install django
可以使用 deactivate 退出虚拟环境。
创建 django 项目:
1django-admin startprject your_project_name
执行上述命令后,你将会看到一个自动创建的目录 your_project_name,自动创建的目录结构如下:
12345678your_project_name/ manage.py your_project_name/ __init__.py settings.py urls.py asgi.py wsgi.py
创建项目中的一个应用:
1python manage.py startapp your_app
执行上述命令后你会获得一个新的 your_app ...
Security and privacy for 6G: A survey on prospective technologies and challenges
Security and privacy for 6G: A survey on prospective technologies and challenges abstract。
解决的问题
本综述系统描述了6G技术在物理、链接和服务方面有关安全和隐私的问题,并且还描述了现有安全框架和最新技术的失败教训。
两个主要经验是:
6G存在新的攻击向量,特别是6G无线技术
物理层安全、人工智能安全等新技术是缓解攻击的重要手段
Architecture
AI’s Impact on 6G Security
AI as guardian: AI for enhancing 6G security
结合 AI 可以提高传统的安全方法的有效性和处理复杂攻击的能力,同时 AI 也作为一项受欢迎的技术被应用到了提升系统性能的地方,包括但不限于下列领域:
在维护信任网络中识别节点行为检测内部攻击者
预测网络攻击并且重定向流量,对网络变更做智能推荐和分离可疑服务
优化无线与计算控制策略
决定设备恢复优先级
审查流量/网络访问预测攻击事件,过滤恶意流量
当然,应用 AI 也存在着各种挑战,例如:
...
Needle in a Haystack: Attack Detection from Large-Scale System Audit
Needle in a Haystack: Attack Detection from Large-Scale System Audit abstract。
Architecture
创新点:
version based 溯源图表示方法,保存了时间信息但是图比之前大了
溯源图精简方法,包括剪枝和合并
基于 TTP 规则的攻击路径识别
Bypassing Backdoor Detection Algorithms in Deep Learning
Bypassing Backdoor Detection Algorithms in Deep Learning abstract。
Architecture
现有的后门检测算法
通常使用隐藏层来作为检测对象,最常用的是倒数第二层,因为该层表示模型提取的最高级别特征。
常见的防御方法被分为了两类:
给定一个中毒模型,使用模型对干净样本和污染样本嵌入表示来确定要修剪的神经元,以便从网络中删除后门对抗规则。
使用嵌入表示来过滤训练数据集,以去除大部分恶意注入的中毒样本,然后可以用来重新训练模型
Feature Pruning 特征剪枝
Bolun Wang, Yuanshun Yao, Shawn Shan, Huiying Li, Bimal Viswanath, Haitao Zheng, and Ben Y Zhao. Neural cleanse: Identifying and mitigating backdoor attacks in neural networks. 2019. 中提出了一种检测后门的技术,假设已知部分干净的样本输入子集,来检测可能后门并且去除掉他们 ...
LOF: Identifying Density-Based Local Outliers
LOF: Identifying Density-Based Local Outliers abstract。
解决的问题
之前的工作大多数研究将异常值视为二元属性,数据中的对象要么是异常值要么不是,在应用程序中情况更为复杂,并且为每一个对象分配一个异常值更有意义。
除此之外还有大量关于聚类算法的工作,从聚类算法的角度来看,离群值是不位于数据集聚类中的对象,通常称为噪声。聚类算法产生的噪声高度依赖于特定算法及其聚类参数。通常这些算法从全局的角度考虑异常值,这将会导致一些缺点。
本文针对此类缺点,提出 LOF 用于表征局部异常值。
Related Work
以往关于离群点检测的研究大多是在统计学领域进行的,这些研究可以大致分为两类:
基于分布的,问题是单变量和数据集潜在分布未知
基于深度的,将数据点表示到 k 维空间,问题是在 k >= 4 时效率会降低
根据直觉的异常值定义:
该定义中定义异常值为离群以至于怀疑是其他机制产生的。
Knorr 和 Ng 在对该定义进行了形式化:
当然以上定义是在全局层面,如下图所示,现实数据集中也存在着局部的异常值:
作者针对全局异常值 ...