多模态融合对于联合决策系统做出整体判断至关重要。由于多模态数据在开放环境中发生变化,动态融合应运而生,并在众多应用中取得了显着进展。然而,现有的大多数动态多模态融合方法缺乏理论保证,很容易陷入次优问题,产生不可靠性和不稳定 ...
0 0 0 2025/06/24 arXiv:2406.04802v3 15713628555
我们介绍了Inspiremusic,这是一个集成的超级分辨率和大型语言模型,可用于高保真性的长期音乐发电。一个统一的框架生成了高保真的音乐,歌曲和音频,该音乐,歌曲和音频将自动回归 Transformer 与超分辨率流量匹配模型结合在一起。该框架可以从文本和音频提示中以更高的采样率以更高的采样率来控制高保真的长期音乐 ...
0 0 0 2025/06/24 arXiv:2503.00084v1 kiwi_zy
搜索引擎至关重要,因为它们提供了一种有效且简单的方法来访问互联网上的大量信息,以满足不同的信息需求。用户查询,即使有特定的需求,也可能有很大差异。先前的研究已经探索了排名模型针对典型查询变化(如释义、拼写错误和顺序更改) ...
0 0 0 2025/06/24 arXiv:2312.15450v1 yang1young
最近的研究表明,可以通过将强化学习(RL)应用于诸如数学和编码等领域的问答任务(QA)任务来改善大语言模型(LLM)的推理能力。 llms的长度长度长,可以学会执行搜索,如在DeepSeek R1中观察到的自我纠正行为所表明的那样。但是,这种搜索行为通常是不精确的,并且缺乏信心,从而产生了冗长的,多余的反应,并突出了直觉和验证方面的缺陷 ...
0 0 0 2025/06/24 arXiv:2505.21097v1 keve
大型语言模型(LLMS)在涉及单一互动的摘要等任务中取得了巨大的成功。但是,他们仍然可以处理需要长期计划的对话等多转弯任务。以前关于多转向对话的著作通过将所有先前的对话视为较长的上下文,将单转增强学习从人类反馈(RLHF)方法扩展到多转弯设置 ...
0 0 0 2025/06/24 arXiv:2410.04612v2 syhhh
奖励成型对于强化学习至关重要(RL),尤其是对于稀疏奖励可以阻止学习的复杂任务。但是,以计算上有效的方式从一组奖励功能中选择有效的成型奖励仍然是一个开放的挑战。我们提出在线奖励选择和政策优化(ORSO),这是一种新颖的方法,将塑造奖励功能的选择作为在线模型选择问题 ...
0 0 0 2025/06/24 arXiv:2410.13837v3 syhhh
本文介绍了一个新型的神经网络框架,称为M2Beamllm,用于毫米波(MMWave)大量多输入多输出(MMIMO)通信系统。 M2BeamllM集成了多模式传感器数据,包括图像,雷达,激光雷达和GPS,利用大型语言模型(LLM)(例如GPT-2)(例如GPT-2)的强大推理能力进行梁预测。通过结合感应数据编码,多模式对准和融合以及监督的微调(SFT),M2Beamllm在标准场景和较少的场景中都表 ...
0 0 0 2025/06/24 arXiv:2506.14532v1 HeiHuZi
评估大型语言模型(LLM)对人类的理解,而不仅仅是文本,这仍然是一个开放的挑战。为了弥合差距,我们引入了有声学代理作为法官(SAGE),这是一个自动化评估框架,可衡量LLM的高阶社交认知。 Sage实例化了一种有知觉的代理,该代理在互动过程中模拟了类似人类的情感变化和内在思想,从而在多转交谈中对测试模型进行了更现实的评估 ...
0 0 0 2025/06/24 arXiv:2505.02847v3 会魔法的年轻人

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)