大型语言模型(LLMS)的个性化偏好一致性是将LLMS量身定制为单个用户偏好的过程,是跨越NLP和个性化领域的新兴研究方向。在这项调查中,我们介绍了有关LLMS的个性化对齐和建模作品的分析。我们介绍了偏好对准技术的分类法,包括培训时间,推理时间以及基于用户模型的方法 ...
0 0 0 2025/05/07 arXiv:2504.07070v1 13026155693
作为热门研究主题,在过去几年中提出了许多多视图聚类方法。然而,大多数现有算法仅将共识信息在不同的观点中考虑到集群。实际上,它可能会阻碍现实生活中的多视图聚类性能,因为不同的视图通常包含各种统计属性 ...
0 0 0 2025/05/07 arXiv:2010.09193v7 FOUR_A
LLM-AS-A-a-Gudge已被广泛用作各种基准的评估方法,并用作模型培训的监督奖励。但是,尽管它们在许多领域中都出色,但潜在的问题却没有探索,破坏了它们的可靠性和效用范围。因此,我们确定了12个关键的潜在偏见,并提出了一个新的自动偏差量化框架 - 核对框架 - 该框架通过使用自动化和原理引导的修改,系统地量化和分析了LLM-AS-A-A-法官中的每种偏差 ...
0 0 0 2025/05/07 arXiv:2410.02736v2 hhhhh
在建议方案中,有两个长期存在的挑战,即选择偏差和数据稀疏性,这会导致点击率(CTR)(CTR)和点击转换率(CVR)任务的预测准确性显着下降 ...
0 0 0 2025/05/07 arXiv:2302.06141v1 AmyLYJ
多模式奖励模型(MRMS)在增强多模式大语模型(MLLM)的性能方面起着至关重要的作用。尽管最近的进步主要集中在改善MRMS的模型结构和培训数据上,但对长期推理能力的有效性的奖励模型以及如何激活MRM中的这些功能的探索有限。在本文中,我们探讨了如何使用加强学习(RL)来改善奖励建模 ...
0 0 0 2025/05/07 arXiv:2505.02835v1 xjx0524
近年来,由于其并行性和快速记忆带宽,GPU已成为HPC和ML应用的首选加速器。尽管GPU提高计算,但GPU间通信可以创建可扩展性瓶颈,尤其是随着每个节点和群集的增长数量。传统上,CPU管理了多GPU的沟通,但是以GPU为中心的交流的进步现在通过减少其参与,赋予GPU在通信任务中更多的自主权并解决多GPU通信和计算中的不匹配来挑战这种CPU的主导地位 ...
0 0 0 2025/05/07 arXiv:2409.09874v2 jane88
实时,聪明和自然的语音互动是下一代人类计算机相互作用的重要组成部分。最近的进步展示了基于大语言模型(LLM)建立智能口头聊天机器人的潜力。在本文中,我们介绍了Llama-omni 2,这是一系列语言模型(SpeechLMS),范围为0 ...
0 0 0 2025/05/07 arXiv:2505.02625v1 rosyclouds
尽管在近距离3D对象检测中深入学习取得了成功,但现有的方法在新型对象和摄像机配置中零弹性概括。我们介绍了Detany3D,这是一个迅速的3D检测基础模型,该模型能够仅使用单眼输入来检测任意摄像机配置下的任何新颖对象。培训3D检测的基础模型从根本上受到注释3D数据的可用性有限的限制,这激发了Detany3D利用广泛预先训练的2D基础模型嵌入的丰富先验知识来弥补这种稀缺性 ...
0 0 0 2025/05/07 arXiv:2504.07958v1 布朗瓶

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)