在实际应用程序中,还需要一个机器学习模型来处理开放式识别(OSR),除了域移位外,在推理过程中出现未知类别,其中数据的分布在训练阶段和推理阶段之间的分布也有所不同。域概括(DG)旨在处理推理阶段目标域在模型训练期间无法访问的域移位情况。开放域概括(ODG)同时考虑了DG和OSR ...
由于其出色的生成能力,扩散 Transformer (DIT)现在已成为构建图像生成模型的首选选择。与以前的基于卷积的UNET模型不同,DIT纯粹由一堆 Transformer 块组成,它使DIT在可伸缩性中具有出色的可扩展性,例如大语言模型。但是,增长的模型大小和多步取样范式给部署和推理带来了巨大的压力 ...
最近,机器人社区积累了更大,更多样化的数据集,以培训通用机器人政策。但是,尽管这些政策在各种任务中都能达到强大的平均表现,但它们通常在个人专业任务上表现不佳,并且需要对新获得的特定任务数据进行进一步调整。通过共同培训将特定于任务的数据与精心策划的大型先验数据集的策划子集相结合可以产生更好的专业策略,但是天真地选择数据实际上可能会损害下游性能 ...
理解和解释图神经网络(GNN)的预测,对于增强其安全性和可信度至关重要。子图级解释因其直观的吸引力而引起关注。但是,由于复杂的搜索过程,大多数现有的子图级解释者都面临效率挑战 ...
由于其强大的理论基础,Shapley的价值是解释Black-Box机器学习模型的突出工具。但是,对于具有结构化输入(例如图形神经网络)的模型,现有的基于Shapley的解释性方法要么仅着重于节点的重要性,要么在扰动输入实例时忽略图形结构。本文介绍了Myerson-Taylor的相互作用索引,该指数将图形结构内在地归因于节点值和节点之间的相互作用值 ...
我们研究了机器学习模型的解释性问题,重点是通过扰动测试评估特征重要性的特征归因方法(FAMS)。尽管他们的实用性,FAMS仍在努力区分不同特征的贡献,而扰动后它们的预测变化相似。为了增强FAMS的歧视能力,我们以必要性和充分性(粉丝)引入功能归因,该属性找到了输入的社区,以使该社区内的样本具有很高的必要性和充分性(PNS)可能导致预测变化的可能性,并将此PNS作为功能的重要性 ...
可解释的图神经网络(XGNN)在涉及图形结构数据的各种科学应用中广泛采用。现有的XGNN主要采用基于注意力的机制来学习边缘或节点的重要性,以通过可解释的子图提取和做出预测。但是,这些方法的表示属性和局限性仍然不足 ...
最近出现了可解释的图神经网络(GNN),以促进使用GNN的信任。现有的GNN解释器是从各种角度开发的,以提高解释绩效。我们迈出了在对抗攻击下研究GNN解释器的第一步 - 我们发现,对手略有扰动的图形结构可以确保GNN模型做出正确的预测,但是GNN解释器在扰动图上产生了截然不同的解释 ...