该技术报告概述了我们针对Chime-8 Notsofar-1挑战的提交系统。这项挑战的主要困难是在各个会议室中记录的数据集,该数据集捕获了现实世界中的复杂性,例如高重叠率,背景噪声,可变数量的扬声器和自然对话风格。为了解决这些问题,我们在几个方面优化了系统:对于前端语音信号处理,我们引入了一种数据驱动的诊断和分离(JDS)的联合训练方法,以提高音频质量 ...
语言模型(LMS)通过其专有信息处理能力在推理和深入的财务分析方面表现出了特殊性。先前的研究重点是评估分类性能,同时经常忽略了解释性或预先构想的说明对应于更高的分类准确性。在金融领域使用公共数据集,我们通过LMS定量评估了自我解释,专注于它们的事实和因果关系 ...
大型语言模型(LLMS)从根本上转变了自然语言处理(NLP)跨不同领域的任务。在医疗保健中,准确且具有成本效益的文本分类至关重要,无论是用于临床注释,诊断编码还是任何其他任务,LLM都具有有希望的潜力。文本分类始终面临多个挑战,包括用于培训,处理不平衡数据和开发可扩展方法的手动注释 ...
Exploring the Impact of Temperature Scaling in Softmax for Classification and Adversarial Robustness
SoftMax功能是深度学习中的基本组成部分。这项研究深入研究了SoftMax函数(称为“温度”)中经常被忽视的参数,为图像分类提供了对温度缩放的实际和理论方面的新见解。我们在多个基准数据集上采用卷积神经网络和 Transformer 的经验研究表明,适度的温度通常会带来更好的整体性能 ...
快捷方式学习是指模型在实际任务中采用简单的,不可理的决策规则的现象,从而阻碍了它们的概括和稳健性。近年来,随着大语言模型(LLM)的快速发展,越来越多的研究表明了快捷方式学习对LLM的影响。本文提供了一种新颖的观点,可以回顾有关在文化学习(ICL)中有关快捷方式学习的相关研究 ...
专家(MOE)的混合物由于推理效率的提高,对分布式培训的适应性和模块化而获得了(自我监督学习的突出性)。先前的研究表明,MOE可以通过扩大网络的参数计数而在减少休眠神经元的同时,可以显着提高深度强化学习(DRL)的性能,从而增强了模型的学习能力和处理非平稳性的能力。在这项工作中,我们更多地了解了Moes处理非平稳性并通过多任务培训“放大”非平稳性的MOE的能力,并提供了进一步的证据,表明MOE提高 ...
随着模型大小的增加,深度神经网络在增强学习(RL)中的使用通常会遭受性能降解。尽管专家的软混合物(SoftMoes)最近显示出有望减轻此问题的在线RL,但其有效性背后的原因在很大程度上是未知的。在这项工作中,我们提供了深入的分析,以确定推动这种绩效增长的关键因素 ...
加速的MRI重建过程提出了一个充满挑战的逆问题,这是由于K空间中大量采样的广泛采样。最近,Vision Transformers(VIT)已成为此任务的主流,证明了绩效的实质性改进。但是,仍然存在三个重要问题:(1)VIT难以捕获图像的高频组成部分,从而限制了它们检测本地纹理和边缘信息的能力,从而阻碍了MRI恢复; (2)以前的方法计算相关和无关 Token 中的多头自我注意力(MSA),引入噪声 ...