大型模型的快速发展是由于它们通过大规模预培训在学习和概括方面的出色能力所驱动的,它重塑了人工智能的景观(AI)。这些模型现在是广泛应用的基础,包括对话AI,推荐系统,自动驾驶,内容产生,医学诊断和科学发现。但是,他们的广泛部署也使他们面临着重大的安全风险,从而引起了人们对鲁棒性,可靠性和道德影响的担忧 ...
0 0 0 2025/08/25 arXiv:2502.05206v5 maplechen
在本文中,我们引入了一种新颖的学习范式,用于自适应大语模型(LLM)代理,该模型消除了对基础LLM的微调需求。现有方法通常是刚性的,依赖于静态,手工的反射工作流,或计算密集型,需要LLM模型参数的梯度更新。相比之下,我们的方法可以通过基于内存的在线增强学习来实现低成本的持续适应 ...
0 0 0 2025/08/25 arXiv:2508.16153v1 astonishe
多课程对话中的时间推理提出了一个重大挑战,这在以前的时间推理基准中一直没有研究。为了弥合这一差距,我们提出了一项新的评估任务,以在多课程对话中进行时间推理,并引入一种方法,通过增强Locomo的对话并创建多选择QAS来构建新的基准测试。此外,我们提出了Tremu,这是一个旨在在这种情况下增强LLM代理的时间推理能力的新框架 ...
0 0 0 2025/08/25 arXiv:2502.01630v1 sleep
代理系统的最新进展表明,在解决通用和高度复杂的任务方面具有显着的能力。但是,大多数当前模型都缺乏协调专用代理的机制,并且有限地推广到新的或不同领域的能力。为此,我们介绍了AgentorChestra,这是一种用于通用任务解决的层次多代理框架,将高级计划与模块化代理协作集成在一起 ...
0 0 0 2025/08/25 arXiv:2506.12508v3 boydfd
代理人的自我完善,代理的主链大语言模型(LLM)是根据自己的政策自动采样的轨迹进行培训的,它已成为提高性能的一种有希望的方法。最近的进步,尤其是在网络环境中,面临着一个关键的局限性:它们的性能将在自主学习周期期间达到停滞点,从而阻碍进一步的进步。我们认为,这源于对Web环境的探索有限,以及对LLMS中预训练的Web知识的利用不足 ...
0 0 0 2025/08/23 arXiv:2504.21024v2 panda__
大型语言模型(LLM)的出现促进了人工智能的变革转变,为能够在不同领域跨越复杂的推理,强大的感知和多才多艺的动作铺平了道路。随着这些代理人越来越多地推动了人工智能研究和实际应用,它们的设计,评估和持续改进会带来复杂的多方面挑战。这项调查提供了全面的概述,在模块化的,脑为灵感的体系结构中构建了智能代理,该体系结构整合了认知科学,神经科学和计算研究的原理 ...
0 0 0 2025/08/23 arXiv:2504.01990v2 15766388315
多机构探路(MAPF)是多机器人轨迹计划问题的常见抽象,其中多个同质机器人同时在共享环境中移动。虽然已证明求解MAPF是NP-固定,可扩展且高效的,但对于物流,搜索和响应等现实世界应用程序,求解器至关重要。为此,分散的次级化次优的MAPF Solvers,利用机器学习的利用机器已经出现在舞台上 ...
0 0 0 2025/08/23 arXiv:2506.23793v1 kuioma
由大型语言模型提供动力的代理商取得了令人印象深刻的结果,但是有效地处理互动过程中产生的大量历史数据仍然是一个挑战。当前的方法是设计一个存储模块,以便代理处理这些数据。但是,现有的方法(例如内存库和A-MEM)的存储内存含量质量较差,这会影响回忆性能和响应质量 ...
0 0 0 2025/08/22 arXiv:2508.15294v1 uaene

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)