说话人自适应文本转语音(TTS)合成因其广泛的应用(例如个性化语音助理服务)而引起了广泛的关注。虽然已经提出了几种方法,但它们通常对目标语音样本的数量或质量表现出高度敏感性。为了解决这些限制,我们引入了 Stable-TTS,这是一种新颖的说话人自适应 TTS 框架,它利用高质量预训练数据集的一小部分(称为先验样本) ...
0 0 0 2025/01/21 arXiv:2412.20155v1 rosyclouds
长上下文功能对于大型语言模型 (LLM) 处理复杂且长输入的任务至关重要。尽管为优化长上下文的 LLM 做出了许多努力,但在稳健地处理长输入方面仍然存在挑战。在本文中,我们介绍了 GraphReader,这是一种基于图的代理系统,旨在通过将长文本结构化为图并使用代理自主探索该图来处理长文本 ...
0 1 0 2025/01/21 arXiv:2406.14550v2 hxhhxh
释放大型语言模型 (LLM) 在数据分类方面的潜力代表了自然语言处理的一个有前景的前沿领域。在这项工作中,我们在两种不同的分类场景中与最先进的深度学习和机器学习模型相比,评估了不同 LLM 的表现:i)根据发布的工作评论对员工的工作地点进行分类在线(多类分类),以及 2)新闻文章是否为假的分类(二元分类)。我们的分析涵盖了各种不同大小、量化和架构的语言模型 ...
0 0 0 2025/01/21 arXiv:2501.08457v1 arthur0222
预训练语言模型 (LM) 最近的成功激发了人们对其所拥有的语言能力的广泛兴趣。然而,了解 LM 表示是否对符号推理任务有用的努力一直是有限且分散的。在这项工作中,我们提出了八个推理任务,从概念上讲,这些任务需要比较、合取和组合等操作 ...
0 0 0 2025/01/21 arXiv:1912.13283v2 hxhhxh
当今世界的大量信息存储在结构化和半结构化知识库中。高效且简单的查询方法至关重要,并且不能仅限于那些具有正式查询语言专业知识的人。语义解析领域涉及将自然语言话语转换为可以在知识库上轻松执行的逻辑形式 ...
0 0 0 2025/01/21 arXiv:1812.00978v3 mencius
最近的基础语言模型在零样本和少样本设置的许多 NLP 任务中显示出了最先进的性能。与基于微调的更标准方法相比,这些模型的优点是能够理解以自然语言(提示)编写的指令,这有助于它们更好地推广到不同的任务和领域,而无需特定的训练数据。这使得它们适合解决带有有限数量注释实例的领域的文本分类问题 ...
0 0 0 2025/01/21 arXiv:2403.17661v2 arthur0222
排名学习 (LTR) 算法通常使用归一化折扣累积增益 (NDCG) 或平均平均精度等信息检索指标进行评估。由于这些指标依赖于对预测项目的分数进行排序(因此依赖于项目的排名),因此它们的导数在任何地方要么未定义,要么为零。这使得它们不适合基于梯度的优化,这是学习适当评分函数的常用方法 ...
0 0 0 2025/01/21 arXiv:2102.07831v2 13361168647
最近观察到,在非结构化文本上训练的神经语言模型可以使用自然语言查询隐式存储和检索知识。在这篇简短的论文中,我们通过微调预先训练的模型来回答问题,而无需访问任何外部上下文或知识,从而衡量这种方法的实际效用。我们证明,这种方法可以根据模型大小进行扩展,并且与在回答问题时显式从外部知识源检索答案的开放域系统相比,具有竞争力 ...
0 0 0 2025/01/21 arXiv:2002.08910v4 hxhhxh

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)