在广泛的图形神经网络(GNN)和变形金刚中,过度厚度是一种常见现象,随着层数的增加,性能会恶化。我们没有从完全崩溃的视图中表征过度厚度,在这种崩溃的视野中,我们深入研究了尺寸崩溃的更一般的观点,在该观点中,表示表示在狭窄的圆锥体中。因此,受对比学习在预防尺寸崩溃中的有效性的启发,我们提出了一个新型的归一化层,称为Contranorm ...
0 0 0 2025/07/03 arXiv:2303.06562v2 xixiaixixi
班级学习(CIL)旨在依次学习新课程,同时保留先前学习的课程的知识。最近,预训练的模型(PTM)与参数有效的微调(PEFT)相结合,在无需练习的情况下表现出了出色的性能,而无需先前的任务示例。但是,现有的基于适配器的方法将轻巧可学习的模块纳入CIL的PTM,为每个新任务创建新的适配器,从而导致参数冗余和未能在跨任务中利用共同的知识 ...
0 0 0 2025/07/03 arXiv:2505.24816v1 19396386025
在机器人的操纵中,加固学习(RL)通常患有低样本效率和不确定的收敛性,尤其是在大型观察和动作空间中。基础模型(FMS)提供了替代方案,在零射门和几乎没有射击的设置中表现出了承诺。但是,由于身体和空间的理解有限,它们可能不可靠 ...
0 0 0 2025/07/03 arXiv:2403.09583v4 zzxx
早期退出是通过动态调整每个样本的执行层数量来提高预训练语言模型(PLM)推理效率的有效范式。但是,在大多数现有的作品中,每个分类器在培训过程中都均等地对待轻松而硬的样本,这忽略了测试时间的早期退出行为,从而导致训练和测试之间的不一致。尽管某些方法以固定的加速比率解决了这个问题,但是在保持训练和测试之间保持一致性的同时,挑战仍然不足 ...
0 0 0 2025/07/03 arXiv:2412.13236v1 xixiaixixi
通常根据反事实分布的手段研究因果效应,在许多情况下可能不足。鉴于一类已知以标准化常数为标准化的密度,我们建议通过以双重稳健的方式最大程度地减少内核Stein差异来对反事实分布进行建模。这使得在大量分布上估算反事实,同时利用所需的双重鲁棒性 ...
0 0 0 2025/07/03 arXiv:2309.16129v2 RRdec
多跳工具使用的有效评估对于分析大型语言模型 (LLM) 的理解、推理和函数调用能力至关重要。然而,由于缺乏可靠的评估数据集,进展受到阻碍。为了解决这个问题,我们提出了 ToolHop,这是一个包含 995 个用户查询和 3,912 个相关工具的数据集,专门为严格评估多跳工具的使用而设计 ...
0 0 0 2025/07/03 arXiv:2501.02506v4 Ian233
跨域建议(CDR)减轻了建议系统中的数据稀疏性和冷启动问题。虽然最近使用图形神经网络(GNN)捕获复杂的用户项目交互的CDR接近,但它们依赖于通常是次优且劳动力密集的手动设计的体系结构。此外,从源域中提取有价值的行为信息以改善目标域建议仍然具有挑战性 ...
0 0 0 2025/07/03 arXiv:2504.07102v1 xixiaixixi
本文提出了一个模型驱动的深度学习(MDDL)的基于宽带毫米波(MMWave)的大量混合多输入多输入(MIMO)系统的基于模型的通道估计和反馈方案,其中为了减少额外的头顶。首先,我们考虑时间划分双工系统的上行链路通道估计。为了减少上行链路飞行员的开销,以估算基站(BS)的有限射频(RF)链的高维通道,我们建议共同训练相移网络和通道估计器作为自动编码器 ...
0 0 0 2025/07/03 arXiv:2104.11052v3 wenwen

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)