最近,图形神经网络(GNNS)在推荐方面取得了显着的成功。为了减少数据稀疏性的影响,在基于GNN的CF方法中采用了图形对比学习(GCL)来增强性能。大多数GCL方法包括数据增强和对比损失(e ...
0 0 0 2025/06/25 arXiv:2302.02317v1 拾叁
最近的专有模型(例如O3)已开始证明强大的多模式推理能力 ...
0 0 0 2025/06/25 arXiv:2505.03981v1 keve
我们旨在评估大型语言模型(LLMS)进行具体决策。尽管大量的工作一直在利用LLM在具体的环境中进行决策,但我们仍然缺乏对其性能的系统性理解,因为它们通常用于不同的域,用于不同的目的,并基于不同的输入和输出而构建。此外,现有的评估倾向于仅依赖最终的成功率,因此很难确定LLM中缺少什么能力以及问题所在的地方,而问题又可以有效,有效地利用LLMS体现的代理 ...
0 0 0 2025/06/25 arXiv:2410.07166v3 mencius
相机控制已在文本或图像条件的视频生成任务中积极研究。但是,尽管在视频创建领域的重要性,但给定视频的改变相机轨迹仍未探索。由于维持多框外观和动态同步的额外约束,这是非平凡的 ...
0 0 0 2025/06/25 arXiv:2503.11647v1 陆三七
最小贝叶斯风险(MBR)解码可通过使用彗星(一种与人类评估有很高相关的神经指标,实现了最先进的翻译性能。但是,MBR解码需要二次时间,因为它计算了翻译假设和所有参考翻译之间的预期得分。我们提出基于质心的MBR(CBMBR)解码以提高MBR解码的速度 ...
0 0 0 2025/06/25 arXiv:2402.11197v2 panglei_dxm
作为普通微分方程(ODE)的离散近似值的残留网络激发了神经网络设计的显着进步,包括多步法方法,高级方法和多粒子动力学系统。 ODE的解决方案的精度显着影响参数优化,从而影响模型性能。在这项工作中,我们介绍了一系列对 Transformer 体系结构设计的高级探索,以最大程度地减少与真实解决方案相比的错误 ...
0 0 0 2025/06/25 arXiv:2411.03042v1 panglei_dxm
随着大型语言模型(LLM)的出现,神经机器翻译(NMT)的领域发生了变化。自然语言处理(NLP)最近的许多重点都用于建模机器翻译和许多其他使用单个预训练的 Transformer 解码器的问题,而编码器decoder架构(在早期NMT模型中是标准的编码器架构)受到了相对较少的关注。在本文中,我们通过将LLM的世界与NMT世界结合在一起,探讨了通用,高效且易于优化的翻译模型 ...
0 0 0 2025/06/25 arXiv:2503.06594v2 panglei_dxm
大型语言模型(LLMS)越来越多地用于从竞争第三方内容中选择的应用程序,例如在LLM驱动的搜索引擎或聊天机器人插件中。在本文中,我们介绍了偏好操纵攻击,这是一类新的攻击,这些攻击操纵LLM的选择以偏爱攻击者。我们证明,精心制作的网站内容或插件文档可以欺骗LLM来推广攻击者产品并抹黑竞争对手,从而增加用户流量和货币化 ...
0 0 0 2025/06/25 arXiv:2406.18382v2 hhhhh

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)