利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

WBOY
发布: 2023-09-13 14:17:10
转载
871 人浏览过

提高模型泛化能力是推动基于视觉的感知方法落地的重要基础,测试段训练和适应(Test-Time Training/Adaptation)通过在测试段调整模型参数权重,将模型泛化至未知的目标域数据分布段。现有 TTT/TTA 方法通常着眼于在闭环世界的目标域数据下提高测试段训练性能。

然而,在许多应用场景中,目标领域很容易受到强域外数据(Strong OOD)的污染,比如与语义类别无关的数据。这种场景也被称为开放世界测试段训练(OWTTT)。在这种情况下,现有的TTT/TTA通常会强制将强域外数据分类到已知类别中,从而最终干扰对弱域外数据(Weak OOD)如受到噪声干扰图像的分辨能力

最近,华南理工大学和A*STAR团队首次提出了开放世界测试段训练的设定,并且推出了相应的训练方法

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

  • 论文:https://arxiv.org/abs/2308.09942
  • 代码:https://github.com/Yushu-Li/OWTTT

本文首先提出了一种自适应阈值的强域外数据样本过滤方法,以提高自训练 TTT 方法在开放世界中的鲁棒性。该方法进一步提出了一种基于动态扩展原型来表征强域外样本的方法,以改进弱/强域外数据分离效果。最后,通过分布对齐来约束自训练

本研究的方法在5个不同的OWTTT基准上取得了最佳的性能表现,并为TTT的后续研究开拓了面向更加鲁棒TTT方法的新方向。该研究已被ICCV 2023接收为口头报告论文

引言

测试段训练(TTT)可以仅在推理阶段访问目标域数据,并对分布偏移的测试数据进行即时推理。TTT 的成功已经在许多人工选择的合成损坏目标域数据上得到证明。然而,现有的 TTT 方法的能力边界尚未得到充分探索。

为促进开放场景下的 TTT 应用,研究的重点已转移到调查 TTT 方法可能失败的场景。人们在更现实的开放世界环境下开发稳定和强大的 TTT 方法已经做出了许多努力。而在本文工作中,我们深入研究了一个很常见但被忽略的开放世界场景,其中目标域可能包含从显著不同的环境中提取的测试数据分布,例如与源域不同的语义类别,或者只是随机噪声。

我们将上述测试数据称为强分布外数据(strong OOD)。而在本工作中被称为弱 OOD 数据则是分布偏移的测试数据,例如常见的合成损坏。因此,现有工作缺乏对这种现实环境的研究促使我们探索提高开放世界测试段训练(OWTTT)的鲁棒性,其中测试数据被强 OOD 样本污染。

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

图 1 :现有的 TTT 方法在 OWTTT 设定下的评估结果

如图 1 所示,我们首先对现有的 TTT 方法在 OWTTT 设定下进行评估,发现通过自训练和分布对齐的 TTT 方法都会受到强 OOD 样本的影响。这些结果表明,应用现有的 TTT 技术无法在开放世界中实现安全的测试时训练。我们将它们的失败归因于以下两个原因。

  • 基于自训练的 TTT 很难处理强 OOD 样本,因为它必须将测试样本分配给已知的类别。尽管可以通过应用半监督学习中采用的阈值来过滤掉一些低置信度样本,但仍然不能保证滤除所有强 OOD 样本。
  • 当计算强 OOD 样本来估计目标域分布时,基于分布对齐的方法将会受到影响。全局分布对齐 [1] 和类别分布对齐 [2] 都可能受到影响,并导致特征分布对齐不准确。

为了解决现有TTT方法失败的潜在原因,我们提出了两种技术相结合的方法,以提高自训练框架下开放世界TTT的鲁棒性

首先,我们在自训练的变体上构建 TTT 的基线,即在目标域中以源域原型作为聚类中心进行聚类。为了减轻自训练受到错误伪标签的强 OOD 的影响,我们设计了一种无超参数的方法来拒绝强 OOD 样本。

为了进一步分离弱 OOD 样本和强 OOD 样本的特征,我们允许原型池通过选择孤立的强 OOD 样本扩展。因此,自训练将允许强 OOD 样本围绕新扩展的强 OOD 原型形成紧密的聚类。这将有利于源域和目标域之间的分布对齐。我们进一步提出通过全局分布对齐来规范自我训练,以降低确认偏差的风险。

最后,为了综合开放世界的 TTT 场景,我们采用 CIFAR10-C、CIFAR100-C、ImageNet-C、VisDA-C、ImageNet-R、Tiny-ImageNet、MNIST 和 SVHN 数据集,并通过利用一个数据集为弱 OOD,其他为强 OOD 建立基准数据集。我们将此基准称为开放世界测试段训练基准,并希望这能鼓励未来更多的工作关注更现实场景中测试段训练的稳健性。

方法

论文将所提出的方法分为四个部分进行介绍

1)概述开放世界下测试段训练任务的设定

2)介绍了如何通过重写内容为:聚类分析实现 TTT 以及如何扩展原型以进行开放世界测试时训练。

3)介绍了如何利用目标域数据进行动态原型扩展

4)引入分布对齐与重写内容为:聚类分析相结合,以实现强大的开放世界测试时训练。

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

图 2 :方法概览图

任务设定

TTT 的目的是使源域预训练模型适应目标域,其中目标域可能会相对于源域有分布迁移。在标准的封闭世界 TTT 中,源域和目标域的标签空间是相同的。然而在开放世界 TTT 中,目标域的标签空间包含源域的目标空间,也就是说目标域具有未见过的新语义类别

为了避免 TTT 定义之间的混淆,我们采用 TTAC [2] 中提出的顺序测试时间训练(sTTT)协议进行评估。在 sTTT 协议下,测试样本被顺序测试,并在观察到小批量测试样本后进行模型更新。对到达时间戳 t 的任何测试样本的预测不会受到到达 t+k(其 k 大于 0)的任何测试样本的影响。

重写内容为:聚类分析

受到域适应任务中使用聚类的工作启发 [3,4],我们将测试段训练视为发现目标域数据中的簇结构。通过将代表性原型识别为聚类中心,在目标域中识别聚类结构,并鼓励测试样本嵌入到其中一个原型附近。重写内容为:聚类分析的目标定义为最小化样本与聚类中心余弦相似度的负对数似然损失,如下式所示。

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

我们开发了一种无超参数的方法来滤除强 OOD 样本,以避免调整模型权重的负面影响。具体来说,我们为每个测试样本定义一个强 OOD 分数 os 作为与源域原型的最高相似度,如下式所示。

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

图 3 离群值呈双峰分布

我们观察到离群值服从双峰分布,如图 3 所示。因此,我们没有指定固定阈值,而是将最佳阈值定义为分离两种分布的的最佳值。具体来说,问题可以表述为将离群值分为两个簇,最佳阈值将最小化中的簇内方差。优化下式可以通过以 0.01 的步长穷举搜索从 0 到 1 的所有可能阈值来有效实现。

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

动态原型扩展

扩展强 OOD 原型池需要同时考虑源域和强 OOD 原型来评估测试样本。为了从数据中动态估计簇的数量,之前的研究了类似的问题。确定性硬聚类算法 DP-means [5] 是通过测量数据点到已知聚类中心的距离而开发的,当距离高于阈值时将初始化一个新聚类。DP-means 被证明相当于优化 K-means 目标,但对簇的数量有额外的惩罚,为动态原型扩展提供了一个可行的解决方案。

为了减轻估计额外超参数的难度,我们首先定义一个测试样本,其具有扩展的强 OOD 分数作为与现有源域原型和强 OOD 原型的最近距离,如下式。因此,测试高于此阈值的样本将建立一个新的原型。为了避免添加附近的测试样本,我们增量地重复此原型扩展过程。

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

随着其他强 OOD 原型的确定,我们定义了用于测试样本的重写内容为:聚类分析损失,并考虑了两个因素。首先,分类为已知类的测试样本应该嵌入到更靠近原型的位置并远离其他原型,这定义了 K 类分类任务。其次,被分类为强 OOD 原型的测试样本应该远离任何源域原型,这定义了 K+1 类分类任务。考虑到这些目标,我们将重写内容为:聚类分析损失定义为下式。

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

分布对齐约束的意思是在设计或布局中,要求元素按照特定的方式进行排列和对齐。这种约束可以应用于各种不同的场景,包括网页设计、平面设计和空间布置等。通过使用分布对齐约束,可以使元素之间的关系更加清晰和统一,提高整体设计的美观性和可读性

众所周知,自训练容易受到错误伪标签的影响。目标域由 OOD 样本组成时,情况会更加恶化。为了降低失败的风险,我们进一步将分布对齐 [1] 作为自我训练的正则化,如下式。

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

实验

我们对5个不同的OWTTT基准数据集进行了测试,其中包括人工合成的损坏数据集和风格变化的数据集。实验主要使用了三个评价指标:弱OOD分类准确率ACCS、强OOD分类准确率ACCN和二者的调和平均数ACCH

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

需要重写的内容是:Cifar10-C 数据集中不同方法的表现如下表所示

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

需要进行改写的内容是:Cifar100-C 数据集中不同方法的表现如下表所示:

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

需要进行改写的内容是:在ImageNet-C数据集上,不同方法的表现如下表所示

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

表4 不同方法在ImageNet-R 数据集的表现

利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧

表5 不同方法在VisDA-C 数据集的表现

我们的方法在几乎所有数据集上相较于目前最优秀的方法都有显着的提升,如上表所示。它能够有效地识别强 OOD 样本,并减小对弱 OOD 样本分类的影响。因此,在开放世界的场景下,我们的方法能够实现更加鲁棒的TTT

总结

本文首次提出了开放世界测试段训练(OWTTT)的问题和设定,指出现有的方法在处理含有和源域样本有语义偏移的强OOD 样本的目标域数据时时会遇到困难,并提出一个基于动态原型扩展的自训练的方法解决上述问题。我们希望这项工作能够为 TTT 的后续研究探索面向更加鲁棒的 TTT 方法提供新方向

以上是利用动态原型扩展的自训练方法,探索开放世界测试段训练技巧的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板