

如果您无法下载资料,请参考说明:
1、部分资料下载需要金币,请确保您的账户上有足够的金币
2、已购买过的文档,再次下载不重复扣费
3、资料包下载后请先用软件解压,在使用对应软件打开
基于重要特征的视觉目标跟踪可迁移黑盒攻击方法 1.引言 随着计算机视觉技术的发展,视觉目标跟踪逐渐成为了一个热门话题。视觉目标跟踪的应用涉及到很多领域,例如视频监控,自动驾驶等领域。同时随着深度学习技术的发展,基于深度学习的视觉目标跟踪方法也得到了广泛应用。在这个过程中,人们逐渐意识到对于视觉目标跟踪方法的鲁棒性和安全性的重要性。 近年来,有越来越多的研究者关注于视觉目标跟踪方法的安全性。黑盒攻击是最具挑战性的攻击方式之一,它基于训练期间不访问模型架构和权重的情况下,产生具有误导性的干扰输入数据。基于重要特征的视觉目标跟踪可迁移黑盒攻击方法是一个旨在研究如何通过对特定特征的干扰来攻击视觉目标跟踪方法的方案。 2.背景 2.1视觉目标跟踪 视觉目标跟踪是指在一段时间内,跟踪特定物体的位置,形状和大小等属性的过程。它是计算机视觉领域中的重要研究领域之一。目前视觉目标跟踪算法主要可分为基于传统机器学习与基于深度学习。其中,基于深度学习的视觉目标跟踪算法由于其较高的精度和鲁棒性,已经成为研究热点。 2.2黑盒攻击 在黑盒攻击的情况下,攻击者不能访问目标模型的其它信息,仅能根据其输入和输出的信息构建自己的模型。黑盒攻击的目的是为了更好地理解目标模型的性质,也可以用于检测目标模型中的漏洞并进一步提高安全性。 3.研究内容 我们的研究旨在探索如何利用黑盒攻击方法干扰基于深度学习的视觉目标跟踪方法。我们提出了一种基于重要特征的视觉目标跟踪可迁移黑盒攻击方法。具体来说,我们通过分析特定特征的重要性来确定攻击重点。此外,我们提出了一种用于提高攻击方法的迁移性的策略,这种策略可以使攻击方法的泛化能力增强。 3.1基于重要特征的攻击方法 我们的攻击方法的第一步是分析目标模型对输入的影响。我们使用SaliencyMapping来获取图像中的显著性区域。这样做是为了确定在攻击中需要更改的特定特征。接下来,我们使用LIME(LocalInterpretableModel-AgnosticExplanations)算法来分析重要特征。LIME算法可以在黑盒情况下解释模型行为。基于结果,我们确定了重要的图像特征,并且选择了攻击的重点结果。 一旦我们确定了攻击的重点,我们使用特定算法来更改输入图像中的相关特征。我们使用FGSM(FastGradientSignMethod)算法基于重要特征产生对抗性样本。因为在执行FGSM算法的过程中,我们只需要计算模型的梯度,而不需要访问任何其他模型参数,因此该算法在实际应用中更加实用。 3.2攻击方法的迁移性 在实际应用中,攻击者常常会面对新的目标模型,此时我们需要使攻击方法具有强的迁移性。为了提高攻击方法的迁移性,我们提出了一种迁移性增强的方法。我们使用自适应训练方法来增强攻击方法的迁移性。具体地,我们将渗透攻击融合到训练期间。这样做可以使我们的攻击方法具有更强的鲁棒性,并且可以有效地减少误报率。 4.实验结果 我们在多个视觉目标跟踪数据集上对我们的方法进行了实验,包括OTB-2013、VOT2016和LaSOT等数据集。实验结果显示,我们的方法可以有效地攻击现有的视觉目标跟踪模型,并且可以在不同的数据集之间实现有效的迁移性。我们的攻击方法可以对目标跟踪性能造成明显的干扰,并且可以在没有任何先验知识的情况下进行攻击。 5.结论 本论文提出了一种基于重要特征的视觉目标跟踪可迁移黑盒攻击方法,该方法通过分析特定特征的重要性来确定攻击重点,并使用利用FGSM算法基于重要特征产生对抗性样本进行攻击。此外,还提出了一种用于增强迁移性的自适应训练方法。实验结果表明,我们的方法对目标跟踪性能产生了明显的干扰,并且可以在不同数据集之间实现有效的迁移性。我们的方法可用于提高视觉目标跟踪方法的安全性,我们希望这种技术能够得到更广泛的应用。

快乐****蜜蜂
实名认证
内容提供者


最近下载