对于大型语言模型(LLM)来说,生成长而连贯的文本仍然是一个挑战,因为它们缺乏层次结构计划和在话语产生中的结构性组织。我们介绍了结构对齐,这是一种新颖的方法,将LLM与人类的话语结构保持一致,以增强长篇文本生成。通过将语言基础的话语框架整合到加强学习中,我们的方法指导模型以产生连贯且组织良好的产出 ...
0 0 0 2025/04/08 arXiv:2504.03622v1 liuweitang
最近的研究表明,深度神经网络(DNN)的高压,例如,DNN的重量基质的大量修剪会导致准确性和对对抗攻击的敏感性严重下降 ...
0 0 0 2025/04/08 arXiv:2503.20454v1 odenkkk
我们提出了一个新概念,即Evolution 6.0,它代表了由生成AI驱动的机器人技术的演变。当机器人缺乏完成人类要求的任务的必要工具时,它会自主设计所需的工具并学习如何使用它们来实现目标 ...
0 0 0 2025/04/08 arXiv:2502.17034v4 蔡明方
不同的摄像头传感器具有不同的噪声模式,因此在一个传感器上训练的图像denoing模型通常不会很好地推广到其他传感器。一个合理的解决方案是为每个传感器收集一个大型数据集,以进行训练或微调,这不可避免地耗时。为了应对这一跨域挑战,我们提出了一种新颖的自适应域学习(ADL)方案,用于通过利用来自不同传感器(源域)的现有数据加上新传感器(目标域)的少量数据,以跨域原始图像进行降级 ...
0 0 0 2025/04/08 arXiv:2411.01472v1 ZeHeru
由大型语言模型 (LLM) 支持的自主代理应用程序最近作为解决复杂的现实世界任务的有效工具而受到关注。代理工作流程的核心是依赖 LLM 来计划和执行工具和外部应用程序编程接口 (API) 的使用顺序,以获得用户请求的答案。已经出现了各种基准和排行榜来评估 LLM 使用工具和 API 的能力;然而,大多数这些评估仅跟踪单个或多个独立的 API 调用能力 ...
0 0 0 2025/04/08 arXiv:2409.03797v2 chrisxiong
大型语言模型(LLM)代理已经演变为智能处理信息,做出决策并与用户或工具互动。关键能力是长期记忆能力的整合,使这些代理能够利用历史互动和知识。但是,记忆的规模不断增长,对语义结构的需求构成了重大挑战 ...
0 0 0 2025/04/08 arXiv:2503.21760v1 garming
我们介绍了一个新的基准LLF基准(从语言反馈基准学习;发音为“ Elf Bench”),以评估AI代理人从自然语言反馈和说明中进行交互性学习的能力。从语言反馈中学习(LLF)对人们至关重要,主要是因为此反馈提供的丰富信息可以帮助学习者避免大部分反复试验,从而加快学习过程。大型语言模型(LLMS)最近使AI代理能够理解自然语言 - 因此,AI代理人可以像人类一样在学习过程中受益于语言反馈 ...
0 0 0 2025/04/08 arXiv:2312.06853v2 chrisxiong
检索增强的生成(RAG)通过整合外部知识来减轻大语言模型(LLMS)的幻觉。但是,参数知识和检索到上下文之间的冲突构成了挑战,尤其是当检索到的信息不可靠或模型的内部知识已过时时。在这种情况下,LLM努力确定是否更多地依靠其自己的参数或冲突的背景 ...
0 0 0 2025/04/08 arXiv:2503.15888v1 ymx

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)