推荐和协同过滤系统在现代信息和电子商务应用中非常重要。随着这些系统在行业中变得越来越流行,它们的输出可能会影响业务决策,从而激励对手损害此类系统的可用性或完整性。我们引入了针对协同过滤系统的数据中毒攻击 ...
0 0 0 2025/01/12 arXiv:1608.08182v2 winruner
预训练模型在顺序推荐中展现了其威力。最近,Prompt在NLP预训练中的调优得到了广泛的探索和验证,这有助于更有效、高效地从下游任务的预训练模型中提取有用的知识,特别是在冷启动场景中。然而,将 NLP 的即时调整引入推荐是具有挑战性的,因为推荐中的标记(即 ...
0 0 0 2025/01/12 arXiv:2205.09666v3 winruner
推荐公平性最近引起了人们的广泛关注。在现实世界的系统中,用户通常具有多个敏感属性(例如 ...
0 0 0 2025/01/12 arXiv:2205.04682v2 winruner
基于图的推荐近年来取得了巨大成功。然而,大多数现有的基于图的推荐侧重于基于积极边缘/反馈来捕获用户偏好,而忽略消极边缘/反馈(例如, ...
0 0 0 2025/01/12 arXiv:2405.15280v1 winruner
尽管大型语言模型(LLM)拥有强大的聊天、编码和推理能力,但他们经常产生幻觉。传统观点认为,幻觉是创造力与事实性之间平衡的结果,可以通过将 LLM 扎根于外部知识源来减轻但不能消除幻觉。通过广泛的系统实验,我们表明这些传统方法无法解释为什么 LLM 在实践中会产生幻觉 ...
0 0 0 2025/01/11 arXiv:2406.17642v1 ymx
使用神经音频编解码器模型对语音进行标记化是现代人工智能管道的重要组成部分,用于单独或在多模态环境中生成或理解语音。传统上,此类标记化模型集中于仅使用具有强归纳偏差的组件的低参数计数架构。在这项工作中,我们表明,通过扩展具有大量参数的 Transformer 架构来解决这个问题,并应用基于灵活的有限标量量化(FSQ)的瓶颈,可以在极低的比特率下达到最先进的语音质量-每秒 400 美元或 700 美元 ...
0 0 0 2025/01/11 arXiv:2411.19842v1 luffy
我们提出了 ListT5,这是一种基于 Fusion-in-Decoder (FiD) 的新颖的重新排序方法,可以在训练和推理时处理多个候选段落。我们还引入了一种基于具有输出缓存的多进制锦标赛排序的列表排序的高效推理框架。我们在零样本检索任务的 BEIR 基准上评估和比较我们的模型,证明 ListT5 (1) 的性能优于最先进的 RankT5 基线,显着+1 ...
0 0 0 2025/01/11 arXiv:2402.15838v3 bbwang920
像 OpenAI-o1 这样的大型推理模型 (LRM) 通过大规模强化学习展示了令人印象深刻的长逐步推理能力。然而,他们的扩展推理过程常常受到知识不足的影响,导致频繁的不确定性和潜在的错误。为了解决这个限制,我们引入了 \textbf{Search-o1},这是一个通过代理检索增强生成(RAG)机制和用于细化检索文档的 Reason-in-Documents 模块来增强 LRM 的框架 ...
0 0 0 2025/01/11 arXiv:2501.05366v1 17638254453

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)