最近的研究重点是通过模仿学习来增强较小模型的能力,并利用大型基础模型(LFMS)产生的输出。许多问题影响了这些模型的质量,从浅LFM输出的有限仿真信号等等;小规模同质培训数据;最值得注意的是缺乏严格的评估,导致高估了小型模型的能力,因为它们倾向于模仿样式,而不是LFM的推理过程。为了应对这些挑战,我们开发了ORCA(我们正在与法律团队合作,根据Llama的发布政策公开释放模型权重,该政策将在此HT ...
0 0 0 2025/07/21 arXiv:2306.02707v1 千禧狸花
运动计划是自主机器人驾驶的关键组成部分。尽管存在各种轨迹数据集,但由于代理相互作用和环境特征的差异,将它们有效地利用它们用于目标域仍然具有挑战性。常规方法,例如域的适应或集成学习,利用多个源数据集,但遭受域失衡,灾难性遗忘和高计算成本的困扰 ...
0 0 0 2025/07/21 arXiv:2507.04790v1 布朗瓶
大型语言模型在提问(QA)中表现出色,但仍在多跳上的推理和时间问题上挣扎。基于查询的知识图QA(KGQA)通过生成可执行查询而不是直接答案提供了模块化替代方案。我们探索了Wikidata QA的基于多阶段查询的框架,提出了多阶段方法,以提高挑战性多跳和时间基准的性能 ...
0 0 0 2025/07/21 arXiv:2507.11954v1 aulisa
最近,对多目标跨域推荐(MTCDR)引起了人们的兴趣,该建议旨在同时提高多个领域的建议性能。现有的MTCDR方法主要依赖于域共享实体(\ EG用户或项目)来融合和传输跨域知识,这在非裁缝建议方案中可能无法使用。一些研究将用户的偏好和项目功能建模为域可共享的语义表示形式,可以用来解决MTCDR任务 ...
0 0 0 2025/07/21 arXiv:2507.12871v2 Cindy
ADAMW是 Transformer 预处理的默认优化器。多年来,我们的社区一直在搜索更快,更稳定的优化器,其正面结果有限。在这项工作中,我们向任何基于动量的优化器提出了Pytorch中的单线修改,我们将其重命名为谨慎的优化器e ...
0 0 0 2025/07/21 arXiv:2411.16085v3 leiwu30
单视图像指导点云完成(SVIPC)任务旨在借助单视图像从部分输入中重建完整的点云。尽管以前的作品证明了这种多模式方法的有效性,但图像指导的基本必要性在很大程度上仍未受到检查。为了探讨这一点,我们基于一个基于注意力的多分支编码器网络的SVIPC提出了强大的基线方法,该方法仅将部分点云视为输入,无视图 ...
0 0 0 2025/07/21 arXiv:2506.15747v1 liushibo
联合学习可以使资源受限的边缘计算设备(例如手机和物联网设备)学习一个共享模型以进行预测,同时保持培训数据本地。这种分散的火车模型方法可提供隐私,安全,监管和经济利益。在这项工作中,当本地数据是非IID时,我们关注联合学习的统计挑战 ...
0 0 0 2025/07/21 arXiv:1806.00582v2 cyyo
随着在线服务的快速发展,推荐系统(RS)对于缓解信息过载变得越来越不可或缺。尽管取得了显着的进步,传统的推荐模型(CRM)仍然存在一些局限性,例如 ...
0 0 0 2025/07/21 arXiv:2306.05817v6 wangjinxile

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)