推荐公平性最近引起了人们的广泛关注。在现实世界的系统中,用户通常具有多个敏感属性(例如 ...
基于图的推荐近年来取得了巨大成功。然而,大多数现有的基于图的推荐侧重于基于积极边缘/反馈来捕获用户偏好,而忽略消极边缘/反馈(例如, ...
尽管大型语言模型(LLM)拥有强大的聊天、编码和推理能力,但他们经常产生幻觉。传统观点认为,幻觉是创造力与事实性之间平衡的结果,可以通过将 LLM 扎根于外部知识源来减轻但不能消除幻觉。通过广泛的系统实验,我们表明这些传统方法无法解释为什么 LLM 在实践中会产生幻觉 ...
使用神经音频编解码器模型对语音进行标记化是现代人工智能管道的重要组成部分,用于单独或在多模态环境中生成或理解语音。传统上,此类标记化模型集中于仅使用具有强归纳偏差的组件的低参数计数架构。在这项工作中,我们表明,通过扩展具有大量参数的 Transformer 架构来解决这个问题,并应用基于灵活的有限标量量化(FSQ)的瓶颈,可以在极低的比特率下达到最先进的语音质量-每秒 400 美元或 700 美元 ...
我们提出了 ListT5,这是一种基于 Fusion-in-Decoder (FiD) 的新颖的重新排序方法,可以在训练和推理时处理多个候选段落。我们还引入了一种基于具有输出缓存的多进制锦标赛排序的列表排序的高效推理框架。我们在零样本检索任务的 BEIR 基准上评估和比较我们的模型,证明 ListT5 (1) 的性能优于最先进的 RankT5 基线,显着+1 ...
像 OpenAI-o1 这样的大型推理模型 (LRM) 通过大规模强化学习展示了令人印象深刻的长逐步推理能力。然而,他们的扩展推理过程常常受到知识不足的影响,导致频繁的不确定性和潜在的错误。为了解决这个限制,我们引入了 \textbf{Search-o1},这是一个通过代理检索增强生成(RAG)机制和用于细化检索文档的 Reason-in-Documents 模块来增强 LRM 的框架 ...
使用 Schwinger-Keldysh 技术,我们推导了量子标量场系统的输运方程。我们首先讨论方程的一般结构,然后讨论它们的碰撞项。考虑到\phi^3模型中最多三环图和\phi^4模型中最多四环图,我们得到了包括多粒子碰撞和粒子产生过程的贡献的输运方程,此外平均场效应和二元相互作用 ...
大型语言模型 (LLM) 的激增彻底改变了从越来越多的财务报表、公告和商业新闻中提取和分析关键信息的方式。识别命名实体以构建结构化数据对分析财务文档提出了重大挑战,也是智能财务分析的基础任务。然而,这些通用 LLM 的效果如何以及它们在各种提示下的表现仍需要更好的了解 ...