我们描述了研究基本思想,以建立和理解人为智能的系统:从统计学习的符号方法到依赖因果关系概念的介入模型。机器学习和AI的一些硬开放问题与因果关系本质上相关,进步可能需要我们对如何从数据建模和推断因果关系的理解 ...
0 0 0 2025/07/15 arXiv:2204.00607v1 fazai001
大型语言模型(LLMS)已证明了它们在各个领域的强大功能,并且最近已集成了图形分析作为图形语言模型(GLM)。以LLM作为预测指标,有些GLM可以解释自然语言所描述的看不见的任务,并从提示中的一些示例中学习,而无需参数调整(称为封闭式学习(ICL))。 GLM的另一个子集利用丰富的训练标签来增强模型性能,称为指令调整 ...
0 0 0 2025/07/15 arXiv:2506.21559v1 s_75san
台湾中国研究(CS)已发展为一个由独特的地缘政治地位和与中国大陆的长期学术参与所塑造的丰富的跨学科研究领域。这项研究回应了日益增长的需求,以系统地重新审视和重组数十年的基于台湾的CS奖学金,通过提出一种AI辅助方法,将非结构化的学术文本转变为结构化的交互式知识表示。我们应用生成AI(GAI)技术和大型语言模型(LLMS)来提取和标准化实体关系三元,从1996年至2019年之间发表的1,367个同行 ...
0 0 0 2025/07/15 arXiv:2505.10093v1 s_75san
零样本语音转换(VC)旨在将源说话人的音色转换为任意看不见的音色,而不改变原始语音。零样本 VC 方法的最新进展已经显示出显着的进步,在方面仍然存在很大的改进潜力为了提高说话者的相似度和语音,本文提出了 Takin-VC,一种基于联合混合内容和记忆增强上下文感知音色建模的新型零样本 VC 框架来应对这一挑战。具体来说,首先提出了一种有效的混合内容编码器,以神经编解码器训练为指导,利用预先训练的 W ...
0 0 0 2025/07/15 arXiv:2410.01350v2 wenzhanwujian
近年来,基于扩散的生成模型在语音转换中表现出了显着的性能,包括剥离扩散概率模型(DDPM)等。但是,这些模型的优势是以需要大量抽样步骤的代价。这种限制阻碍了他们在现实情况下的实际应用 ...
0 0 0 2025/07/15 arXiv:2506.01032v1 wenzhanwujian
大型语言模型(LLMS)通过使用可验证的奖励(RLVR)方法增强学习表现出了显着的推理能力。但是,现有方法的关键限制是,在整个轨迹级别上定义的奖励提供了不足的指导来优化推理过程的中间步骤。为了解决这个问题,我们介绍了\ textbf {\ name},这是一种新颖的方法,该方法估算了使用树采样在各种推理步骤中奖励的数学期望 ...
0 0 0 2025/07/15 arXiv:2506.05183v1 18621790742
大型语言模型(LLM)已经展示了其在数学推理中解决问题的能力。解决工业应用场景中的现实优化(OPT)问题需要先进的应用数学能力。然而,当前仅解决线性规划的 OPT 基准与复杂的现实情况相去甚远 ...
0 0 0 2025/07/15 arXiv:2407.09887v4 18621790742
在财务分析领域,利用非结构化数据(例如收益电话会议(ECC))来预测股票波动是一个关键的挑战,吸引了学者和投资者。虽然先前的研究使用了多模式深度学习模型来获取对波动性预测的ECC的一般视图,但它们通常无法捕获详细的复杂信息。我们的研究介绍了一个新颖的框架:\ textbf {ECC Analyzer},该框架利用大型语言模型(LLMS)从ECC中提取更丰富,更具预测性的内容来帮助该模型的预测性能  ...
0 0 0 2025/07/15 arXiv:2404.18470v2 651106682

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)