大语言模型(LLM)的最新进展揭示了持续学习中的一种令人困惑的现象:尽管进行了广泛的培训,但模型经历了显着的性能下降,引发了有关任务一致性的问题和潜在的知识保留。这项研究首先探讨了“虚假遗忘”的概念,建议这种绩效下降通常反映了任务一致性的下降,而不是真正的知识损失。通过使用合成数据集的对照实验,我们研究了新任务初始训练阶段模型性能的动态,发现早期优化步骤可以破坏先前确定的任务一致性 ...
0 0 0 2025/08/29 arXiv:2501.13453v1 Xiaose
阅读理解是个人成功的关键,但是由于人类注释和传统方法(例如语言分析和项目反应理论(IRT))所需的广泛人类注释和大规模测试,对问题难度的评估仍然具有挑战性。尽管这些强大的方法提供了有价值的见解,但它们的可扩展性是有限的。大型语言模型(LLMS)有可能使问题难度估计自动化;但是,该区域仍未被逐渐倍增 ...
0 0 0 2025/08/29 arXiv:2502.17785v1 瓶子
大型语言模型(LLM)学习,即从LLM中有选择地删除信息,对于负责任的模型部署至关重要 ...
0 0 0 2025/08/29 arXiv:2505.19855v1 Nought8298
我们提出MMFashion,这是一种基于Pytorch的综合,灵活和用户友好的开源视觉时尚分析工具箱。该工具箱支持各种各样的时尚分析任务,包括时尚属性预测,时尚识别和检索,时尚地标检测,时尚解析和细分以及时尚兼容性和建议。它涵盖了时尚分析社区中几乎所有主流任务 ...
0 0 0 2025/08/29 arXiv:2005.08847v2 SOOKIE
随着由大型语言模型(LLM)提供动力的AI代理人变得越来越多功能并能够解决各种各样的任务,因此确保其安全性已成为一个关键的挑战。最紧迫的威胁之一是迅速的注射攻击,这些攻击利用了代理商对自然语言输入的弹性 - 当授予代理商访问工具或处理敏感信息时,这是一个特别危险的威胁。在这项工作中,我们提出了一组原则设计模式,用于建立具有可证明抗药性的AI代理 ...
0 0 0 2025/08/29 arXiv:2506.08837v3 lurenv
现代的自动监视技术在深度学习方法上非常依赖。尽管表现出色,但这些学习系统本质上容易受到对抗性攻击的影响 - 恶意制作的投入旨在误导或欺骗模型来做出错误的预测。对手可以通过穿着对抗T恤,眼镜或帽子或特定行为来物理地改变外观,以避免对监视系统的各种形式的检测,跟踪和识别;并获得未经授权的访问权限和资产的访问 ...
0 0 0 2025/08/29 arXiv:2305.01074v3 兔兔突突
我们介绍了GSVISLOC,这是一种视觉定位方法,专为3D高斯脱落(3DGS)场景表示。给定一个场景和查询图像的3DGS模型,我们的目标是估计相机的位置和方向。我们通过将场景功能与图像功能进行牢固匹配的场景功能来实现这一目标 ...
0 0 0 2025/08/29 arXiv:2508.18242v1 zhifeiji
大型多媒体平台Spotify吸引了超过6.75亿个活跃用户,他们共同消耗了数百万小时的音乐,播客,有声读物和视频内容。这种多样化的内容消耗模式引入了计算广告的独特挑战,这些挑战必须有效地整合了各种广告模式,包括音频,视频和显示,并在单个用户体验中。传统的AD推荐模型主要是为前景体验而设计的,通常很难将平台固有的音频中心与在多种格式和方式中优化广告性能的需求调和 ...
0 0 0 2025/08/29 arXiv:2506.18735v1 destiny_bule

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)