基于多尺度视觉Transformer的图像篡改定位
TP391; 随着数字图像处理技术的不断发展,图像篡改不再局限于图像拼接等单一手段,而是通过图像编辑软件后处理隐藏恶意篡改痕迹,导致现有传统算法和基于深度学习的定位方法效果不佳.针对现有图像篡改算法定位精度不高的问题,文中提出了一种端到端基于多尺度视觉Transformer的图像篡改定位网络,该网络通过融合Transformer和卷积编码器来提取篡改区域与非篡改区域的特征差异,而多尺度视觉Transformer对不同尺寸图像块序列的空间信息进行建模,使得网络能适应各种形状大小的篡改区域.实验结果表明:所提出的算法在CASIA和NIST2016测试集上的F1分数分别为0.431和0.877,AU...
Saved in:
Published in | 华南理工大学学报(自然科学版) Vol. 50; no. 6; pp. 10 - 18 |
---|---|
Main Authors | , , |
Format | Journal Article |
Language | Chinese |
Published |
华南理工大学 计算机科学与工程学院, 广东 广州510640
01.06.2022
|
Subjects | |
Online Access | Get full text |
ISSN | 1000-565X |
DOI | 10.12141/j.issn.1000-565X.210603 |
Cover
Summary: | TP391; 随着数字图像处理技术的不断发展,图像篡改不再局限于图像拼接等单一手段,而是通过图像编辑软件后处理隐藏恶意篡改痕迹,导致现有传统算法和基于深度学习的定位方法效果不佳.针对现有图像篡改算法定位精度不高的问题,文中提出了一种端到端基于多尺度视觉Transformer的图像篡改定位网络,该网络通过融合Transformer和卷积编码器来提取篡改区域与非篡改区域的特征差异,而多尺度视觉Transformer对不同尺寸图像块序列的空间信息进行建模,使得网络能适应各种形状大小的篡改区域.实验结果表明:所提出的算法在CASIA和NIST2016测试集上的F1分数分别为0.431和0.877,AUC值分别为0.728和0.971,相比当前的主流算法具有较为明显的性能提升;所提算法对JPEG压缩攻击具有较强的鲁棒性. |
---|---|
ISSN: | 1000-565X |
DOI: | 10.12141/j.issn.1000-565X.210603 |