最近,图形神经网络(GNNS)在推荐方面取得了显着的成功。为了减少数据稀疏性的影响,在基于GNN的CF方法中采用了图形对比学习(GCL)来增强性能。大多数GCL方法包括数据增强和对比损失(e ...
最近的专有模型(例如O3)已开始证明强大的多模式推理能力 ...
我们旨在评估大型语言模型(LLMS)进行具体决策。尽管大量的工作一直在利用LLM在具体的环境中进行决策,但我们仍然缺乏对其性能的系统性理解,因为它们通常用于不同的域,用于不同的目的,并基于不同的输入和输出而构建。此外,现有的评估倾向于仅依赖最终的成功率,因此很难确定LLM中缺少什么能力以及问题所在的地方,而问题又可以有效,有效地利用LLMS体现的代理 ...
相机控制已在文本或图像条件的视频生成任务中积极研究。但是,尽管在视频创建领域的重要性,但给定视频的改变相机轨迹仍未探索。由于维持多框外观和动态同步的额外约束,这是非平凡的 ...
最小贝叶斯风险(MBR)解码可通过使用彗星(一种与人类评估有很高相关的神经指标,实现了最先进的翻译性能。但是,MBR解码需要二次时间,因为它计算了翻译假设和所有参考翻译之间的预期得分。我们提出基于质心的MBR(CBMBR)解码以提高MBR解码的速度 ...
作为普通微分方程(ODE)的离散近似值的残留网络激发了神经网络设计的显着进步,包括多步法方法,高级方法和多粒子动力学系统。 ODE的解决方案的精度显着影响参数优化,从而影响模型性能。在这项工作中,我们介绍了一系列对 Transformer 体系结构设计的高级探索,以最大程度地减少与真实解决方案相比的错误 ...
随着大型语言模型(LLM)的出现,神经机器翻译(NMT)的领域发生了变化。自然语言处理(NLP)最近的许多重点都用于建模机器翻译和许多其他使用单个预训练的 Transformer 解码器的问题,而编码器decoder架构(在早期NMT模型中是标准的编码器架构)受到了相对较少的关注。在本文中,我们通过将LLM的世界与NMT世界结合在一起,探讨了通用,高效且易于优化的翻译模型 ...
大型语言模型(LLMS)越来越多地用于从竞争第三方内容中选择的应用程序,例如在LLM驱动的搜索引擎或聊天机器人插件中。在本文中,我们介绍了偏好操纵攻击,这是一类新的攻击,这些攻击操纵LLM的选择以偏爱攻击者。我们证明,精心制作的网站内容或插件文档可以欺骗LLM来推广攻击者产品并抹黑竞争对手,从而增加用户流量和货币化 ...