代码生成旨在生成满足以自然语言编写的要求的代码。像chatgpt这样的大型语言模型(LLM)在这一领域表现出了有希望的有效性。但是,这些LLM通常无法确保生成代码的句法和语义正确性 ...
大型语言模型(LLM)应用程序正在超越简单的聊天机器人发展为动态的通用代理程序,该程序将LLM调用和输出 Token 扩展,以帮助AI代理的推理,探索和解决复杂的任务。但是,现有的LLM服务系统忽略了程序和呼叫之间的依赖性,缺少大量优化机会。我们的分析表明,提交给LLM服务发动机的计划经历了较长的累积等待时间,这主要是由于单个LLM请求和计划的主管阻止 ...
检索增强的一代(RAG)是减少大语言模型(LLM)幻觉的常见策略。尽管增强学习(RL)可以通过激活检索能力来使LLM充当搜索剂,但现有的能力通常不足以使其内部知识不足。这可以导致冗余的检索,潜在的有害知识冲突和增加的推理潜伏期 ...
大型语言模型(LLMS)在广泛的NLP任务中表现出了令人印象深刻的功能,但是它们在根本上仍然无状态,受到阻碍长期推理的有限上下文窗口的限制。最近解决此限制的最新努力通常会通过外部记忆库来增加LLM,但是大多数现有的管道都是静态和启发式驱动的,缺乏确定要存储,更新或检索的内容的任何学识机制。我们提出了Memory-R1,这是一种增强学习(RL)框架,它使LLMS具有通过两种专用代理来积极管理和利用外 ...
正在利用生成AI来解决涉及桌面应用程序的各种计算机使用任务。最先进的系统仅着重于提高领先基准的准确性。但是,由于极高的端到端延迟,这些系统实际上是无法使用的(e ...
随着由大型语言模型(LLM)提供动力的AI代理人变得越来越多功能并能够解决各种各样的任务,因此确保其安全性已成为一个关键的挑战。最紧迫的威胁之一是迅速的注射攻击,这些攻击利用了代理商对自然语言输入的弹性 - 当授予代理商访问工具或处理敏感信息时,这是一个特别危险的威胁。在这项工作中,我们提出了一组原则设计模式,用于建立具有可证明抗药性的AI代理 ...
大语言模型(LLM)能力的代理商的最新进步表明,集体智能可以极大地超过个人能力,这在很大程度上归因于精心设计的经过精心设计的跨间沟通拓扑。尽管绩效令人印象深刻,但现有的多代理管道固有地引入了大量 Token 开销,并增加了经济成本,这对其大规模部署构成了挑战。为了应对这一挑战,我们提出了一个经济,简单且可靠的多代理通信框架,称为$ \ texttt {agentPrune} $,该框架可以无缝集成 ...
在本文中,我们引入了一种新颖的学习范式,用于自适应大语模型(LLM)代理,该模型消除了对基础LLM的微调需求。现有方法通常是刚性的,依赖于静态,手工的反射工作流,或计算密集型,需要LLM模型参数的梯度更新。相比之下,我们的方法可以通过基于内存的在线增强学习来实现低成本的持续适应 ...