Professional Documents
Culture Documents
通过 Disentangled 进行人脸反欺骗
通过 Disentangled 进行人脸反欺骗
通过 Disentangled 进行人脸反欺骗
表征学习
1 2 * , 2 * 2 2
Ke‑Yue Zhang , Taiping Yao Jian Zhang , Ying Tai 2 † , Shouhong Ding
, ,
Jilin Li 2 , Feiyue Huang 2 1
, Haichuan Song , and Lizhuang Ma
1
1
华东师范大学, 中国上海优图实验室, 腾讯, 中国上海
2
51184501178@stu.ecnu.edu.cn;
hcsong@cs.ecnu.edu.cn; lzma@sei.ecnu.edu.cn;
{taipingyao,timmmyzhang,yingtai,ericshding,jerolinli,garyhuang}@tencent.com
抽象的。人脸反欺骗对人脸识别系统的安全至关重要。 以前的方法侧重于开发基于从
图像中提取的特征的判别模型,这可能仍然纠缠在恶搞模式和真人之间。 在本文中,
受
解耦表示学习的启发,我们提出了一种新颖的人脸反欺骗视角, 将图像中的活跃度特
征和内容特征分开,并将活跃度特征进一步用于分类。 我们还提出了一种卷积神经网
络(CNN)
架构,它具有低级和高级监督相结合的过程, 以提高泛化能力。
我们在公共
基准数据集上评估我们的方法, 广泛的实验结果证明了我们的方法对最先进的竞争
对手的有效性。最后,我们进一步可视化了一些结果,以帮助理解解缠结的效果和优
势。
关键词:
人脸反欺骗,
生成模型,
解耦表示
1 简介
人脸识别技术具有优于人类的性能,
广泛应用于智能设备、
门禁和安全场景。
然而,相关的安全问题引
起了公众的关注,
因为人脸的访问成本很低,
精心设计的化妆品很容易欺骗这种生物识别机制。
这些面部欺骗,
也称为演示攻击 (PA),
从简单的打印面部图像、
视频回放到更复杂的 3D 面具和面部化
妆。
从理论上讲,人脸识别系统在没有特定防御的情况下容易受到所有欺骗, 这会招致黑客的恶意攻
击,
但也鼓励了鲁棒的人脸反欺骗算法的提升。
* 同等贡献。
通讯作者。
†
Machine Translated by Google
2 Ke‑Yue Zhang, Taiping Yao, et al.
图 1. 之前的纠缠框架与我们的解开纠缠框架之间的比较。
以前的作品学习了很容易过度拟合训练数
据集的纠缠特征。 相比之下,
我们解开的框架提炼了活力
具有适当约束和监督的特征。
由于主要的面部恶搞图像或视频包含伪影, 研究人员
提出了几种基于纹理分析的方法。 一些手工制作的特征与反欺骗算法相结合, 例如局部二进制模
式(LBP)
[6,14,15,27],
定向网格直方图(HOG)
[21,41],
Scale
不变特征变换(SIFT) [30]等。
这些基于线索的方法使用手工制作的特征来检测动作线索, 例如
嘴唇运动或眨眼
用于身份验证。 但是,这些方法无法应对重放攻击
具有高保真度。 最近,基于卷积神经网络(CNN) 的方法在人脸反欺骗方面取得了很大进展
[40,29,23]。
基本上, 这些
方法将安全问题视为带有 softmax 的二元分类问题
失利。 但是, 它们缺乏过度拟合的泛化能力
训练数据集。 尽管许多方法使用辅助信息(即面部
深度图、 rppg 信号等)来进一步指导网络区分真实和欺骗 [18,19,24],
这些预定义的特征仍然
是
不足以描绘真实的抽象恶搞模式, 因为用尽了
所有可能的约束都是不可能的。
因此,
人脸反欺骗的关键步骤并不在于如何精确地
预先定义欺骗模式,
但是如何从高维提取的表示中实现欺骗模式。
一种可能的解决方案是解开
表示成单独的部分。
在分离学习[38,17]中,
人们一致认为,
高维数据可以用显着更低维和语义上
有意义的潜在表示变量来解释。
面对时
反欺骗,
恶搞模式可以看作是人脸的一种属性,
不仅仅是某种不相关的噪音类型或组合。因此,
问题
转化为我们如何直接针对来自的活动信息
面部图像的所有变化。
如图 1 所示,
我们通过分离潜在表示提出了一种新颖的解开人脸反欺骗技术。 受 [17] 的启
发,
我们假设
人脸图像的潜在空间可以分解为两个子空间: liveness
空间和内容空间。 Liveness features 对应于 liveness‑related
信息,而内容特征则集成了输入图像中剩余的与活性无关的信息, 例如 ID 和光照。
然而, 在解开
学习过程中,
存在两个挑战,
缺少 1)
相应的 gen‑
Machine Translated by Google
通过分离表示学习进行人脸反欺骗 3
uine 图像用于翻译过程中的恶搞图像,反之亦然,2) 清晰
人脸反欺骗文献中活体特征属性的研究。
为了应对上述挑战, 我们引入了低级纹理和高级
深度特征, 以进一步促进解开。对于第一个挑战,我们采用生成对抗网络(GAN)
类鉴别器来
保证翻译图像的合理性。
然后引入一个辅助深度估计器以确保活性信息也已被引入
在真实和恶搞图像之间交换。 对于第二个挑战, 检查
liveness features的属性相当于制作liveness和content
在解开的框架中独立的特征。 为了溢出活力和
内容空间, 我们对翻译后的图像进行编码, 以再次获得重建的活性特征。 随着图像和潜在代码的双向重
建损失,
以自我监督的方式彻底提取各种恶搞模式的活性特征。 为了进一步规范活性空间, 我们引入了一种新
的 LBP
地图监督。 最后, 恶搞分类可以在更小的范围内解决
和更具辨别力的活性特征空间。 因此,
我们的架构更
可能获得良好的泛化能力。
综上所述, 这项工作的贡献有三方面:
‧ 我们通过分离表示学习解决人脸反欺骗,
它将潜在表示分为活性特征和内容特征。
‧ 我们结合低级纹理和高级深度特征来调节
larize liveness space,
这有助于解开的表征学习。
‧ 提供了大量的实验和可视化来揭示活性特征的属性, 这证明了我们方法的有效性
对抗最先进的竞争对手。
2 相关工作
我们的方法引入了分离的表示学习来解决人脸反欺骗。
之前的相关工作主要集中在两个方面:
人脸反
欺骗和
属性解耦。
域 [34,2,12,39] 和傅里叶谱 [22]。
然而,
这些手工
由于表示能力有限, 基于特征的方法无法实现高精度。
随着深度学习的兴起, 研究人员试图通过基于 CNN 的特征来解决人脸反欺骗问题。
最初,
[40,29,23] 将任务视为
具有 softmax 损失的二元分类问题。
与手工制作的特征相比,
此类模型在内部测试设置中
获得了更高的准确性。 然而,
由于
对于训练数据的过度拟合,
它们的泛化能力相对较差。
Machine Translated by Google
4 Ke‑Yue Zhang, Taiping Yao, et al.
为了提高泛化能力, 许多方法试图利用
辅助监督引导网络。 [24] 试图用
面部深度信息和远程光电体积描记(r‑ppg) 信号的辅助监督。 [18]利用欺骗图像来估计欺骗
相关的噪声模式。 [33] 采用域泛化策略
实现交叉测试的改进。
这些辅助监督确实提高了泛化能力。
然而这些方法都在整体上解决了这
个问题
特征空间,
受到无关因素的干扰。
解开的表示。 关于解开的关键直觉是
解开的表示可以将数据分解为不同的信息
变化因素[25]。 [16,10] 旨在学习解开的表示
没有监督。 [38] 将人脸图像的潜在特征划分为不同的
部分,其中每个部分编码一个属性。 [17]假设潜在空间
图像可以分解为内容空间和样式空间。
这些作品启发我们将面部图像的特征分解为内容
特征和活性特征。 在人脸反欺骗中, 内容特征对应
图像中与活跃度无关的信息, 如ID、
背景、
场景
照明等。相反, 活体特征是区分真人和攻击的关键。 显然,
我们可以解决人脸反欺骗问题
在活性特征空间中。
然而,
在解耦过程中存在许多挑战
学习过程,
例如没有重组图像的基本事实,
各种风格的恶搞等。
在本文中,我们将低级纹理和高级深度特征相结合,
以促进解开的表示学习。
3 解耦框架
我们的框架主要由两部分组成: 解开过程和
辅助监督。 作为我们框架的核心组件,
在
Sec.3.1,
解缠结过程将表示分离为两个独立的因素,
分别是活跃度特征和内容特征。
作为
在 3.2 节中说明,
深度、
纹理和判别约束被利用
作为辅助监督。 通过引入这三个辅助网络,
我们整合了日期活性特征并进一步促进了解开过程。
图2
说明了我们的方法和整个学习过程的概述。
3.1 解开过程
解开过程旨在分离活性特征和内容
通过交换和重新组合这两个特征来实现特征。 解缠结部分的输入是两个未配对的图像 A
和 B,
其中 A 是随机选择的
来自活人脸图像, B 是从恶搞图像中选择的。
在编码器部分,
我们首先使用卷积块从输入中提取潜在代码 Z。 接着
两个独立的卷积子网络将潜在代码 Z 编码为活性
特征 L 和内容特征 C。
这种特定的结构将
Machine Translated by Google
通过分离表示学习进行人脸反欺骗 5
图 2. 我们的解缠结框架概述。
图像的特征分为两部分,内容特征和活跃度特征。通过交换真人和攻击
者的活体特征, 我们可以得到内容相同但活体属性发生变化的不同重建图像。
提出了纹理网络、深度网
络和鉴别器以促进解耦表示学习。
两个特征相互卷积。
根据上述过程,
我们可以分别对图像A、
B进行编码得到LA、 CA和LB、 CB 。
然后,
我们交换活性部分LA和LB ,
得到图像Ab和
Ba。
Ab = Dec(CA, LB), Ba = Dec(CB, LA)。 (1)
0 0
一个,
L0 乙 L0 一个,
影像重建。
编码器和解码器的组合应该能够从数据集中重建任何图像xi :
记录
大号
十一 = Exi p(xi) kD(E(xi)) - xik1 , (2)
其中 p(xi)是数据集中原始图像的分布,
E 是编码器,
D 是解码器。
潜在的重建。
给定翻译时的一对活性特征和内容特征,
我们应该能够在解码和编码后对其进
行重构。
记录
大号
天 = Ezi q (zi) kE (D (zi)) ‑ zik1 (3)
Machine Translated by Google
6 Ke‑Yue Zhang, Taiping Yao, et al.
表 1. 我们方法的辅助网络的详细信息。
其中zi是活性特征Li和内容特征Ci的组合 , 和
q(zi)是潜在代码的分布。
3.2 辅助监督
本节我们介绍三种辅助监督:
LBP图、
深度图
和歧视监督,
共同促进解开过程。
判别监督确保生成的视觉质量
图片。
深度和 LBP 监督被插入到不同的部分,
以保证生成的图像在其活跃度特征时属于正确的类别
被交换。 LBP 图和深度图一起对活跃度进行正则化
特征空间,
使其成为区分真人和真人的关键因素
恶搞模式。
三个辅助网络的详细结构如图所示
标签。 1. 每个卷积层后面跟着一个批归一化层和
具有 3 × 3 内核大小的整流线性单元 (ReLU) 激活函数。
纹理辅助监督。
活度特征是人脸图像的基本特征,
它决定了图像的活度类别。
因此,
当在真人和攻击之间交换活性特征时,
图像的类别和估计的深度图应该同时改变。
而估计的深度图通常被认为与诸如
作为面部光照和阴影,
包含在纹理信息中
的脸。
更重要的是,
之前的工作已经证明纹理是人脸反欺骗的重要线索。
因此,
采用 LBP map 进行正则化
解耦框架中的活性特征。
虽然 LBP 特征包含一些额外的信息,
但提出的解缠结框架利用
Latent Reconstruction Loss 将活性特征限制为只学习必要的
信息。
为了使特征与众不同,
对于真实的面孔,
我们使用
Machine Translated by Google
通过分离表示学习进行人脸反欺骗 7
[1]中的算法提取的LBP图作为纹理监督。
而对于恶搞脸,
零图作为基本事实。
其中 LBP 是 LBP Estimator Net,
P(xi)是数据集中活人脸图像的分布, P(li)是活人脸图像的
活跃度空间分布, N(xi)是恶搞图像在数据集中的分布数据集, N(li)是恶搞图像的活跃空间分
布,
lbpxi表示活人脸图像xi的 lbp 图, 0 表示恶搞图像的零图。
其中 Dep 是参数固定深度网络,P(xi)是活人脸图像的分布,
N(xi)是恶搞图像的分布,
depxi是
活人脸图像xi的深度图, 0 表示恶搞的零图相应的图像。
在训练过程中,
每次迭代有两个连续的步骤。
第一步,
我们修复解缠结网络并更新鉴别器,
Machine Translated by Google
8 Ke‑Yue Zhang, Taiping Yao, et al.
迪斯
大号
D = - EI∈Rlog(D1(I)) - EI∈Glog(1 - D1(I))
(6)
- EI∈Rlog(D2(I)) - EI∈Glog(1 - D2(I))
其中 R 和 G 分别是真实图像和生成图像的集合。
第二步,
我们修复判别器并更新解缠结网络,
创
大号
D = -EI∈Glog(D1(I)) - EI∈Glog(D2(I)) (7)
损失函数。
训练过程的最终损失函数是上述损失函数的加权求和,
L=L 创
D + λ1L
记录
+ λ2L
记录
(8)
十一 天 + λ3Ldep + λ4Llbp
其中λ1、 λ2、 λ3、 λ4是权重。
按照常见的对抗训练流程,
我们交替优化鉴别器和解缠结网络。
根据经验选择权重以平衡每个损失项。
4 实验结果
4.1 实验设置
通过分离表示学习进行人脸反欺骗 9
表 2 Oulu‑NPU 数据集四种协议的内测结果
协议 方法 APCER(%) BPCER(%) ACER(%)
STASN[42] 1.2 2.5 辅助[24] 1.9
1.6 1.6 1.6
1 FaceDe‑S [18] 1.2 1.7 1.5
FAS‑TD[37] 2.5 0.0 1.3
我们的 1.7 0.8 1.3
FAS‑TD[37] 14.2±8.7 4.2±3.8 9.2±6.0
STASN[42] 6.7±10.6 8.3±8.4 7.5±4.7
4 FaceDe‑S [18] 5.1 ± 6.3 6.1 ± 5.1 5.6 ± 5.7
BASN[19] 6.4±8.6 3.2±5.3 4.8±6.4
我们的 5.4±2.9 3.3±6.0 4.4±3.0
4.2 实验对比
在本节中,
我们展示了解缠结的优越性,
并进一步说明了翻译结果。
为了验证我们方法的性能,
我们进行
在 Oulu‑NPU 和 SiW 上进行了内部测试结果的实验,
CASIA 和重放攻击的交叉测试结果
的实验。 然后我们演示一些例子来展示
翻译细节,
验证活性特征的有效性。
内部测试。
在 Oulu‑NPU 和 SiW 数据集上评估内部测试。
我们
利用每个数据集中定义的协议。 标签。 2显示了比较
我们的方法是 Oulu 数据集上最好的四种方法。
我们的方法实现
协议 1、3 和 4 中的结果更好,
而协议中的 ACER 稍差
2. 对于评估 Oulu 中所有变化的协议 4,
我们的方法是最好的
结果, 验证了我们的方法具有更好的泛化性能。
在 [19] 之后,
我们报告了关于 SiW 的三个协议的 ACER。
标签。 3 场演出
我们的方法在基于框架的方法中取得了更好的结果。
交叉测试。我们通过进行跨数据集评估来评估泛化能力。
在相关工作之后,
CASIA‑MFSD 和重放攻击
被用于实验,结果在 HTER 中测量。
结果显示在表中。 4.为了公平比较,
我们比较方法
仅使用单帧信息。
我们的方法使 HTER 降低了 1.2 pp
Machine Translated by Google
10 Ke‑Yue Zhang, Taiping Yao, et al.
表 3 SiW 数据集三种协议的内测结果
协议 方法 APCER(%) BPCER(%) ACER(%)
辅助[24] 3.58 3.58 3.58
‑ ‑ 1.00
STASN[42]
1 FAS‑TD[37] 0.96 0.50 0.73
‑ ‑ 0.37
盆地[19]
我们的 0.07 0.50 0.28
辅助[24] 0.57±0.69 0.57±0.69 0.57±0.69
‑ ‑
STASN[42] 0.28±0.05
2 FAS‑TD[37] 0.08±0.17 0.21±0.16 0.15±0.14
‑ ‑
BASN[19] 0.12±0.03
我们的 0.08±0.17 0.13±0.09 0.10±0.04
‑ ‑ 12.10±1.50
STASN[42]
辅助[24] 8.31±3.81 8.31±3.80 8.31±3.81
3 ‑ ‑ 6.45±1.80
盆地[19]
FAS‑TD[37] 3.10±0.79 3.09±0.83 3.10±0.81
我们的 9.35±6.14 1.84±2.60 5.59±4.37
表 4. CASIA‑MFSD 和 Replay‑Attack 的交叉测试结果。
火车测试火车测试
方法 CASIA 重播 重播 CASIA
MFSD 攻击 攻击 MFSD
美国有线电视新闻网[40]
48.5% 45.5%
比从 CASIA‑MFSD 到 Replay‑Attack 的最先进技术,
并从 Replay‑Attack 到 CASIA‑MFSD 获得可
比的 HTER。 这一结果也证明
我们的解缠结方法具有更好的泛化能力。
翻译结果。 我们展示了一些来自 Oulu 的翻译示例
协议 1 分为三组: live‑spoof、
live‑live、
spoof‑spoof,
如图 3 所示。
live‑spoof组中, 深度图随着liveness的交换而变化
特征。 在live‑live组和spoof‑spoof组中, liveness的特点
变化不会导致深度图的变化, 这意味着活跃度
特征确实决定了图像是否是实时的。 每个之间的区别
Machine Translated by Google
通过分离表示学习进行人脸反欺骗 11
图 3. 对应深度图的翻译结果图解
LBP 地图。 我们在每两列之间交换活性特征。
的交换
深度和 LBP 图验证了活体特征是活体人脸图像的关键部分。
图 4. 交换实时和恶搞细节的插图。第一行是
原图, 第二行是翻译结果。 红色矩形是指
作为实时图像的细节, 而蓝色是指恶搞图像的细节。
两列活人脸和恶搞图分别是光、
ID、
背景。
正如翻译所示,
这些因素没有变化
类别发生变化, 这意味着活性特征不包含这些
因素。
图 4 显示了两组实时和攻击图像及其局部区域细节。
如图,
局部细节差异较大
真实人物和攻击,
攻击图像往往有一些重复的条纹。
在结合攻击图像的活性特征后,
翻译结果的局部细节与对应的大头钉相似,
这表明活性特征不仅学到了差异
真人和攻击之间,
也学到了不同的攻击细节。
Machine Translated by Google
12 Ke‑Yue Zhang, Taiping Yao, et al.
图 5. 来自不同方法的特征分布的可视化。
我们用
对活性特征或整体特征的不同约束并绘制相应的
t‑SNE [26] 括号中的特征。
表 5 不同监管组合对比
方法
BC‑Depth 0/1 Map‑Depth LBP‑LBP Depth‑Depth Depth‑LBP 我们的
宏碁
活性特征 3.64 3.02 1.87 1.69 1.65 1.56
融合 2.78 2.50 2.40 1.80 1.50 1.25
4.3 消融研究
研究解缠结、
不同监督和分数融合的效果
方法,
我们分别对 Oulu‑NPU 协议 1 进行消融实验。
活性特征分布。我们使用 t‑SNE [26] 来可视化特征
来自不同的方法,其中包括 500 个活人脸图像和 2,000 个恶搞
图像,
如图 5 所示。
比较 (a) 和 (b),
我们得出结论,
解缠结确实找到了一个子空间,
在该子空
间中,
直播和恶搞的特征可以
更容易区分。
为了比较(b) 和我们的方法(c), 低
对活性特征的水平 LBP 监督提高了
生活和攻击。 (c) 和 (d) 之间的差异证明了 liveness 特征
确实可以区分真实和攻击, 而内容特征则不能。
不同的监督。 a 在我们的方法中,
我们提出了结合低级 LBP 纹理和高级深度信息的监督。
我们比较
这种监督与其他五种消融方法的结合,
都是
基于所提出的解缠结框架:
(1)
二元分类(BC Depth)
方法,
在活性空间上使用二元分类。 (2) 0/1
Map‑Depth 方法意味着通过将特征回归到
0/1 地图,
其中 0 地图用于攻击,
1 地图用于实时。 (3) LBP‑LBP法
使用 LBP 图监督特征空间和翻译图像。 (4) 深度‑深度
方法是指对特征空间和图像空间进行两次深度监督。 (5)
Depth‑LBP 方法使用对特征空间的深度监督和对翻译图像的 LBP 监督,
这是我们方法的反向版本。
Machine Translated by Google
通过分离表示学习进行人脸反欺骗 13
图 6 两种不同设置下的活跃度特征分布:
(a)
和(b)
显示不同攻击的活跃度特征并使用相同的设备进行直播; (c)、
(d) 和
(e) 关于具有相同攻击或直播的不同设备的功能。
表 6 分数融合结果
融合
方法 LBP Map Depth Map
最大平均值
APCER 1.25 2.50 2.92 1.67
BPCER 1.67 0.83 0.83 0.83
宏碁 1.56 1.67 1.88 1.25
标签。
图 5 显示了每种方法在活性特征上的性能以及与深度网络的融合结果。
与不同的liveness监督比较
特征,
LBP 作为低级纹理监督规范化特征空间
效率更高,
表现更好。
关于 LBP 和 4 种组合的结果
深度监督表明对特征空间和图像的相同监督
表现不如不同的监督。
以及两次监管的顺序
对结果影响不大,
但我们方法的结果略好一些。
分数融合。
使用 Oulu‑NPU 协议 1,
我们对
分数融合。
标签。
图 6 显示了每个输出的结果以及具有最大值和平均值的融合。
它显示使用 LBP 图或深度图,
性能相似。
并且LBP图和深度图的融合达到了最好的性能。
因此,
对于所有实验,
我们通过利用融合来评估性能
LBP图和深度图的得分,
score = (kmaplbpk + kmapdepthk)/2。
5 进一步探索
我们已经排除了某些因素对 Sec 中活性特征的影响。 4.2.为了
更好地理解 liveness 特征的本质,
我们做一些定性的
实验来探索与它相关的因素。
恶搞类型。
我们随机抽取 200 张图片,
由 1 人收集
某些设备。
然后我们提取图像的活性特征并将它们可视化
通过 t‑SNE [26]。
我们在三星和 HTC 手机下展示了结果
图 6(a) 和 (b)。
虽然没有对攻击使用额外的限制,
但有
Machine Translated by Google
14 Ke‑Yue Zhang, Taiping Yao, et al.
图 7. 使用相同设备的不同攻击和使用相同攻击的不同设备的 delta 映射。
至少三个不同的集群: 所有设备中的实时图像、纸质攻击和屏幕攻击,
这意味着活性特征可能与
恶搞类型有关。
采集设备。 我们为每种类型的攻击随机选取 200 张图像, 并使用六种不同的设备。
然后我们可视
化图 6(c)、
(d) 和 (e) 中的活性特征。
来自不同设备的活跃度特征对于攻击是聚集的,但对于活
着的人来说是分散的。
这表明真人的活体特征可能与采集设备无关。
但是,
攻击的活性特征可能
包括有关收集设备的信息。
我们进一步显示了生成图像和每种类型的原始图像之间的逐像素增量图, 如图 7 所示。 第
一行显示的原始图像将活性特征与同一张实时图像交换以生成结果在第三行。 然后我们从原始
图像中减去平移图像以获得增量图, 将其映射到颜色空间中, 以便在第二行中更好地可视化。 从
图 7 中,
我们可以得到以下结论: (1) 在真实人脸之间交换活跃度特征时, 增量图几乎为零。 然
而, 当活人脸和恶搞图像之间时, 增量图变得更大。 (2) 同一类型攻击(纸质或屏幕) 的 Delta
图相似, 但区分了两种攻击。 (3)
同一种攻击, 不同采集设备下的delta map不同。
6。
结论
本文介绍了一种新的人脸反欺骗视角,将图像中的活跃性和内容特征分开。
提出了一种将解缠
结过程与多个适当监督相结合的新颖架构。
我们结合低级纹理和高级深度特征来规范活性空间。我们可视化翻译过程并分析活性特征的
内容,
从而更深入地了解人脸反欺骗任务。我们的方法在广泛使用的人脸反欺骗数据库上进行
了评估,并取得了出色的效果。
Machine Translated by Google
通过分离表示学习进行人脸反欺骗 15
参考
1. Ahonen, T., Hadid, A., Pietikainen, M.:
具有局部二进制模式的人脸描述:
在人脸识别中的应用。
IEEE 模式分析和机器智能交易 28(12), 2037–2041 (2006)
2. Bao, W., Li, H., Li, N., Jiang, W.:
一种基于光流场的人脸识别活体检测方法。
在:2009年图像分析与信
号处理国际会议。 第 233‑236 页。 IEEE (2009)
3. Bharadwaj, S., Dhamecha, TI, Vatsa, M., Singh, R.:
使用运动放大进行计算高效的人脸欺骗检测。
见:IEEE 计算机视觉和模式识别研讨会论文集(2013 年)
4. Biometcs., IJS.: 信息技术生物特征呈现攻击检测第1部分:
框架。 (2016)
5. Boulkenafet, Z.、
Komulainen, J.、 Akhtar, Z.、 Benlamoudi, A.、 Samai, D.、Bekhouche, SE、 Ouafi,
A.、
Dornaika, F.、Taleb‑Ahmed, A.、 Qin, L., et al.: Acompetition on generalized software‑
based facepresentation attack detection in mobile scenario。 在: 2017 IEEE 国际生物识别联
合会议(IJCB)。 页。
688–696。 IEEE (2017)
6. Boulkenafet, Z.、
Komulainen, J.、
Hadid, A.:
基于颜色纹理分析的人脸反欺骗。
在:2015 IEEE 图像
处理国际会议(ICIP)。 第 2636‑2640 页。 IEEE (2015)
7. Boulkenafet, Z.、
Komulainen, J.、
Hadid, A.:
使用加速鲁棒特征和 Fisher 矢量编码的人脸反欺骗。
IEEE 信号处理字母 24(2), 141–145 (2016)
8. Boulkenafet, Z.、
Komulainen, J.、
Hadid, A.:
使用颜色纹理分析的面部欺骗检测。 IEEE 信息取证
和安全交易 11(8), 1818–1830 (2016)
9. Boulkenafet, Z., Komulainen, J., Li, L., Feng, X., Hadid, A.:
Oulu‑npu:
具有真实世界变化的移动
面部呈现攻击数据库。 在:2017 第 12 届 IEEE 自动面部和手势识别国际会议(FG 2017)。 页。
612–618。 IEEE (2017)
10. Chen, X., Duan, Y., Houthooft, R., Schulman, J., Sutskever, I., Abbeel, P.:
Info gan:
通过信息
最大化生成对抗网络的可解释表示学习。 在:神经信息处理系统的进展(2016 年)
11. Chingovska, I., Anjos, A., Marcel, S.:
关于局部二元模式在人脸反欺骗中的有效性。 见: 2012 年
BIOSIG‑国际生物识别特别兴趣小组 (BIOSIG) 会议论文集。 第 1‑7 页。 IEEE (2012)
12. Feng, L., Po, LM, Li, Y., Xu, X., Yuan, F., Cheung, TCH, Cheung, KW:
面部反欺骗的图像质量和运
动线索的集成: 神经网络网络方法。 视觉传达和图像表示杂志 38 (2016)
13. Feng, Y., Wu, F., Shao, X., Wang, Y., Zhou, X.:
联合 3d 人脸重建和与位置图回归网络的密集对⻬。
在:欧洲计算机视觉会议 (ECCV) 会议记录。 pp. 534–551 (2018) 14. de Freitas Pereira, T.,
Anjos, A., De Martino, JM, Marcel, S.: 基于 Lbp‑top 的对抗面部欺骗攻击的对策。 在:亚洲计算机
视觉会议。 第 121‑132 页。 Springer (2012) 15. de Freitas Pereira, T., Anjos, A., De Martino, JM,
Marcel, S.: 面对反欺骗对策能否在现实世界中发挥作用? 在:
2013 年国际生物识别会议 (ICB)。 第 1‑8
页。 IEEE (2013)
Machine Translated by Google
16 Ke‑Yue Zhang, Taiping Yao, et al.
16. Higgins, I.、
Matthey, L.、
Pal, A.、
Burgess, C.、
Glorot, X.、
Botvinick, M.、
Mohamed, S.、
Lerchner, A.:
beta‑vae: 学习基本视觉概念具有约束的变分框架。 Iclr 2(5), 6 (2017)
17. Huang, X., Liu, MY, Belongie, S., Kautz, J.:
多模态无监督图像到图像转换。
在:欧洲计算机视觉会议
(ECCV) 会议记录。 第 172–189 页(2018 年)
21. Komulainen, J.、
Hadid, A.、
Pietikäinen, M.:
基于上下文的人脸反欺骗。 在:
2013 年 IEEE 第六届生物识
别国际会议: 理论、 应用和系统(BTAS)。 第 1‑8 页。 IEEE (2013)
22. Li, J., Wang, Y., Tan, T., Jain, AK:
基于傅立叶光谱分析的活人脸检测。
在:用于人体识别的生物识别技
术。 卷。 5404, 第 296‑303 页。 国际光学与光子学会 (2004)
23. Li, L., Feng, X., Boulkenafet, Z., Xia, Z., Li, M., Hadid, A.:
使用部分卷积神经网络的原始人脸反欺骗
方法。 在: 2016第六届图像处理理论、 工具和应用国际会议(IPTA)。 第 1‑6 页。 IEEE (2016)
24. Liu, Y., Jourabloo, A., Liu, X.:
学习面部反欺骗的深度模型:
二元或辅助监督。
在:IEEE 计算机视觉和模式
识别会议论文集。 第 389–398 页(2018 年)
25. Locatello, F., Bauer, S., Lucic, M., R¨atsch, G., Gelly, S., Schöolkopf, B., Bachem, O.:
挑战解开
无监督学习中的常见假设申述。 arXiv 预印本 arXiv:1811.12359 (2018)
26. Maaten, Lvd, Hinton, G.:使用 t‑sne 可视化数据。 机器学习研究杂志 9(11 月),
2579–2605(2008
年)
27. M¨a¨att¨a, J., Hadid, A., Pietik¨ainen, M.:使用微纹理分析从单个图像中检测人脸欺骗。 在:2011 年
国际生物识别联合会议 (IJCB)。 第 1‑7 页。 IEEE (2011)
32. Ronneberger, O., Fischer, P., Brox, T.:
U‑net:
用于生物医学图像分割的卷积网络。
在:医学图像计算和
计算机辅助干预国际会议。 第 234‑241 页。 施普林格 (2015)
33. Shao, R., Lan, X., Li, J., Yuen, PC:
用于人脸呈现攻击检测的多对抗判别深度域泛化。
在:IEEE 计算机视
觉和模式识别会议论文集。 第 10023–10031 页(2019 年)
Machine Translated by Google
通过分离表示学习进行人脸反欺骗 17
34. Siddiqui, TA, Bharadwaj, S., Dhamecha, TI, Agarwal, A., Vatsa, M., Singh, R., Ratha, N.:
使用多特征
小视频聚合进行面部反欺骗。 在: 2016年第23届模式识别国际会议(ICPR)。 IEEE (2016)
35. Vareto, RH, Diniz, MA, Schwartz, WR:
使用基于空间和频率的描述符的嵌入在低功率设备上进行人脸欺骗
检测。 在: 伊比利亚美洲模式识别大会。 第 187‑197 页。
施普林格 (2019)
36. Wang, TC, Liu, MY, Zhu, JY, Tao, A., Kautz, J., Catanzaro, B.:
高分辨率图像合成和条件甘斯语义处理。
在:IEEE 计算机视觉和模式识别会议论文集。 第 8798–8807 页(2018 年)
37. Wang, Z., Zhao, C., Qin, Y., Zhou, Q., Qi, G., Wan, J., Lei, Z.:
利用时间和深度信息进行多帧人脸抗欺
骗。 arXiv 预印本 arXiv:1811.05118 (2018)
38. Xiao, T., Hong, J., Ma, J.:
优雅:
与 gan 交换潜在编码以传输多个面部属性。
在:欧洲计算机视觉会议 (ECCV)
会议记录。 第 168–184 页(2018 年)
39. Xu, Z., Li, S., Deng, W.: Learning temporal features using lstm‑cnn architecture for face anti‑
spoofing。 在: 2015 年第三届 IAPR 亚洲模式识别会议(ACPR)。 第 141‑145 页。 IEEE (2015)
40. Yang, J., Lei, Z., Li, SZ:
学习用于人脸反欺骗的卷积神经网络。 arXiv 预印本 arXiv:1408.5601 (2014)
41. Yang, J., Lei, Z., Liao, S., Li, SZ: Face liveness detection with component dependent descriptor。
在: 2013 年国际生物识别会议 (ICB)。 第 1‑6 页。
IEEE (2013)
42. Yang, X., Luo, W., Bao, L., Gao, Y., Gong, D., Zheng, S., Li, Z., Liu, W.:
人脸反欺骗:
模特很重要,
数据也是
如此。 在: IEEE 计算机视觉和模式识别会议论文集。 第 3507–3516 页(2019 年)
43. Zhang, Z., Yan, J., Liu, S., Lei, Z., Yi, D., Li, SZ:
具有多种攻击的人脸反欺骗数据库。
在:2012年第五届IAPR
国际生物识别会议
(ICB)。
第 26‑31 页。 IEEE (2012)