在这项工作中,我们探索用于下游任务的预训练语言模型的无监督域适应( uda)。我们引入了udalm,这是一种微调过程,使用混合分类和掩码语言模型损失,可以以稳健且样本有效的方式适应目标域分布。我们的实验表明,使用混合损失尺度与可用目标数据量和混合损失训练的模型的性能可以有效地用作 ...
0 0 0 2025/04/23 arXiv:2104.07078v1 cjwbuaa
大型语言模型(LLMS)通常比其声称的能力更短的有效上下文长度,尤其是在处理需要从长篇小说的多个部分集成信息并执行多步推理的复杂推理任务时。尽管经过思考链(COT)提示已显示出在降低任务复杂性方面有希望的,但我们的经验分析表明,它无法完全解决此限制。通过受控的实验,我们确定对隐性事实的不良回忆是失败的主要原因,这显着妨碍了推理性能 ...
0 0 0 2025/04/23 arXiv:2503.09819v1 pixianer
无监督的域适应性最近已成为将深层神经网络推广到新目标域的有效范式。但是,仍然有巨大的潜力来达到充分的监督性能。在本文中,我们提出了一种新颖的主动学习策略,以帮助目标域中的知识转移,称为活动领域的适应性 ...
0 0 0 2025/04/23 arXiv:2112.01406v3 15966829631
监督的微调(SFT)是将大型语言模型与人类指示保持一致的里程碑,并将其调整为下游任务。特别是,由于其参数效率,低级适应性(LORA)引起了广泛的关注。但是,它对改善大型模型的影响仍然有限 ...
0 0 0 2025/04/23 arXiv:2503.23362v1 kavin
概念漂移描述了随着时间的推移,流数据的潜在分布的不可预见的变化。概念漂移研究涉及开发用于漂移检测,理解和适应的方法和技术。数据分析表明,如果未解决漂移,则在概念漂移环境中的机器学习将导致学习结果不佳 ...
0 0 0 2025/04/23 arXiv:2004.05785v1 yangtian
我们提出了一个有效的SAM,这是一个新的加速段的新家族。我们保留了Sam的轻量级提示编码器和掩盖解码器,同时替换了效率的较重的图像编码器。对于培训,我们从从SAM-VIT-H图像编码器到有效的知识蒸馏开始 ...
0 0 0 2025/04/23 arXiv:2402.05008v2 link.yu
尽管大型语言模型(LLM)在各个一般领域取得了显着进展,但在医学和医疗保健领域遇到了重大障碍。该领域面临着独特的挑战,例如特定领域的术语和对专业知识的推理。为了解决这些问题,我们为医学领域提出了一种新颖的多学科协作(MC)框架,该框架在角色扮演环境中利用基于 LLM 的代理参与多轮协作讨论,从而提高 LLM 的熟练程度和推理能力 ...
0 0 0 2025/04/23 arXiv:2311.10537v4 yang1young
善解人意的反应生成旨在理解他人的情绪,并选择最合适的策略来帮助他们解决情感挑战。同理心可以归类为认知同理心和情感同理心。前者与理解和辨别他人的情绪问题和情况的能力有关,而后者涉及提供舒适的能力 ...
0 0 0 2025/04/23 arXiv:2407.21048v1 杜岚清

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)