admin管理员组文章数量:1622631
Categorical-wise margin loss实现了选择那些在源域中与目标域具有类似分类分数的样本进行监督,而忽略那些与目标域分类分数差距较大的样本。这可以通过将损失限制为只在分类分数之间的固定差距范围内计算来实现。具体而言,对于一个样本
x
x
x,假设其属于类别
y
y
y,
s
y
(
x
)
s_y(x)
sy(x)表示网络对于样本
x
x
x在类别
y
y
y上的输出得分,
s
y
′
(
x
)
s_{y'}(x)
sy′(x)表示网络对于样本
x
x
x在其他类别
y
′
y'
y′上的得分。那么样本
x
x
x的categorical-wise margin loss就可以表示为:
其中
m
m
m是一个预先设定的边缘值,用于限制目标样本和其他类别样本得分之间的差距。如果
s
y
(
x
)
s_y(x)
sy(x)比
s
y
′
(
x
)
s_{y'}(x)
sy′(x)加上
m
m
m还要小,那么该样本会被视为hard example,会对模型的学习产生更强的影响。相反,如果两个得分之间的差距大于
m
m
m,则该样本对于损失函数的贡献将被忽略,因为它不太可能对模型的分类决策产生太大的影响。因此,categorical-wise margin loss使模型在选择样本进行监督时更加注重那些在源域和目标域中具有相似分类分数的样本,从而提高了模型的领域自适应能力。
本文标签: 作用论文MarginActivedistinctive
版权声明:本文标题:【论文阅读】Learning Distinctive Margin toward Active Domain Adaptation中categorical-wise margin loss的作用 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://m.elefans.com/dianzi/1728870775a1177250.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论