转移学习 - 即进一步对下游任务进行预训练的模型 - 可以赋予明显的优势,包括改善下游性能,更快的收敛性和更好的样品效率 ...
0 0 0 2025/02/17 arXiv:2306.01708v2 zhangheming
交互式决策在诸如自主驾驶之类的应用中至关重要,在自动驾驶中,代理必须在实时计划时推断附近的人类驾驶员的行为。传统的预测框架通常不足或效率低下,因为对人类行为的准确推断需要连续的相互作用而不是孤立的预测。为了解决这个问题,我们提出了一个积极的学习框架,在该框架中,我们严格地得出了预测的信念分布 ...
0 0 0 2025/02/17 arXiv:2502.09918v1 jesson
在这项工作中,我们调查了模型在整个训练过程中都在整合其参数知识的趋势如何发展,以及这种行为如何影响整体绩效,尤其是在知识获取和忘记方面。我们介绍了知识熵的概念,该概念量化了模型与之相关的内存范围;高知识的熵表明该模型利用了广泛的记忆源,而低知识熵表明依靠更确定性的特定来源。我们的分析表明,随着预处理的进步,知识熵的下降持续下降 ...
0 0 0 2025/02/17 arXiv:2410.01380v2 leec
点云是一种重要的几何数据结构。由于其格式不规则,大多数研究人员将此类数据转换为规则的,3d体素网格或图像集合。然而,这会导致数据不必要地庞大并导致问题... ...
0 0 1 2025/02/17 arXiv:1612.00593v2 jerome.zhou
结构修剪可以通过从神经网络中删除结构组的参数来实现模型加速。但是,参数组模式在不同的模型中差异很大,使特定于体系结构的修剪器依赖于手动设计的分组方案,该方案不可能针对新体系结构。在这项工作中,我们研究了一项高度挑战但几乎没有探索的任务,即任何结构修剪,以解决CNNS,RNN,GNNS和Transfersers等任意体系结构的一般结构修剪 ...
0 0 0 2025/02/17 arXiv:2301.12900v2 mahok8
通过人为反馈(RLHF)的增强学习已成为将大型模型与用户偏好保持一致的主要方法。与微调有关培训数据记忆的研究不同,尚不清楚记忆如何受到RLHF比对过程中的影响或引入。了解这种关系很重要,因为可以收集实际用户数据并将其用于对齐大型模型;如果在RLHF期间记住用户数据并随后反流,则可能会引起隐私问题 ...
0 0 0 2025/02/17 arXiv:2406.11715v2 yanxi
在本文中,我们介绍了指南,这是一种针对多模式大语模型(MLLM)应用程序提高的新型数据集,尤其是专注于机器人过程自动化(RPA)用例。我们的数据集包含来自各种网站的各种数据,包括Apollo(62.67 \%),Gmail(3 ...
0 0 0 2025/02/17 arXiv:2404.16048v2 momoom
大型语言模型(LLM)已集成到推荐系统中,以增强用户行为理解。将检索增强发电(RAG)技术进一步合并到这些系统中,以检索更相关的项目并提高系统性能。但是,现有的抹布方法主要依赖于文本语义,并且通常无法纳入最相关的项目,从而限制了系统的有效性 ...
0 0 0 2025/02/17 arXiv:2502.06101v2 tim

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)