deep learning, privacy protection, computer vision, adversarial attack, adversarial example ,"/>
吉林大学学报(信息科学版) ›› 2024, Vol. 42 ›› Issue (1): 59-66.
李婉莹a,b , 刘学艳a,b , 杨 博a,b
LI Wanying a,b , LIU Xueyan a,b , YANG Bo a,b
摘要: 针对现有图像数据集存在的隐私保护需求, 提出一种图像数据集隐私保护场景及该场景下隐私保护的 图像替代数据生成方法。 该场景利用经隐私保护方法处理后的替代图像数据集取代原始图像数据集, 其中 替代图像与原始图像一一对应, 人类无法识别替代图像所属类别, 替代图像可训练现有的深度学习图像分类 算法, 且具有较好的分类效果。 同时针对上述场景, 改进了基于投影梯度下降(PGD: Project Gradient Descent) 攻击的数据隐私保护方法, 将原始 PGD 攻击目标由标签改为图像, 即图像对图像的攻击, 并使用经过对抗训练 的鲁棒模型进行图像对图像攻击作为替代数据的生成方法。 在标准测试集上, 替代后的 CIFAR( Canadian Institute For Advanced Research 10)数据集和 CINIC 数据集在图像分类任务上分别取得了 87. 15% 和 74. 04% 的 测试正确率。 实验结果表明, 该方法能在保证替代数据集对人类隐私性的前提下, 生成原始数据集的替代数据 集, 并保证现有方法在该数据集上的分类性能。
中图分类号: