大型语言模型被用作多种互动和合作的多种代理,在解决复杂的任务方面表现出色。代理商是用声明其功能的提示,以及在跨代理之间协调互动的拓扑。设计多代理系统(MAS)的提示和拓扑本质上是复杂的 ...
基于桌子的问题回答需要当前LLM努力通过单通行推理而难以实现的复杂推理能力。现有的方法,例如经过思考的推理和问题分解,缺乏错误检测机制和丢弃解决问题的经验,与人类如何解决此类问题形成鲜明对比。在本文中,我们提出了Maple(具有长期记忆的多代理自适应计划),这是一个新颖的框架,通过在反馈驱动的循环中工作的专门认知剂模仿人类问题解决的框架 ...
有限元方法(FEM)广泛用于工程和科学计算,但是其预处理,求解器配置和后处理阶段通常很耗时,需要专业知识。本文提出了一个自动解决方案框架,即MooSeagent,用于多物理模拟框架驼鹿,该框架将大规模的预训练语言模型(LLMS)与多代理系统结合在一起。该框架使用LLMS了解自然语言中用户描述的模拟要求,并采用任务分解和多轮迭代验证策略来自动生成驼鹿输入文件 ...
在动态环境中协调多种体现的代理仍然是人工智能中的核心挑战,需要感知驱动的推理和可扩展的合作策略。尽管最近的作品利用大型语言模型(LLM)进行多代理计划,但一些人已经开始探索视觉模型(VLMS)进行视觉推理。但是,这些基于VLM的方法在支持各种实施方案类型方面仍然有限 ...
我们介绍了Kimi K2,这是Experts的混合物(MOE)大型语言模型,具有320亿个激活参数和1万亿个总参数。我们提出了MUONCLIP优化器,该优化器通过新颖的QK-CLIP技术来改进MUON,以解决训练不稳定性,同时享受Muon的先进 Token 效率。基于MuonClip,K2在15上进行了预培训 ...
培训大语言模型(LLMS)充当多转弯,长途任务的自主代理仍然是可伸缩性和训练效率的重大挑战。为了解决这个问题,我们引入了L-Zero(L0),这是通用药物的可扩展的端到端培训管道。 L0具有低成本,可扩展和沙盒并发的代理工人池,降低了在复杂环境中应用加固学习的障碍 ...
多机构学习算法已经成功地在各种游戏中生成超人计划,但对部署的多代理计划人员的设计影响有限。将这些技术应用于多代理计划的关键瓶颈是它们需要数十亿个经验步骤。为了启用大规模的多代理计划研究,我们提出了Gpudrive ...
尽管针对软件工程的语言模型(LMS)最近取得了进展,但收集培训数据仍然是一个重要的痛苦点。现有数据集很小,最多有11个或更少的GitHub存储库的培训实例。策划此类数据集的程序通常很复杂,需要数百小时的人工劳动;伴侣执行环境还占用了几种存储的数量,严重限制了它们的可扩展性和可用性 ...