我们提出了 Text2Motion,这是一种基于语言的规划框架,使机器人能够解决需要长视野推理的顺序操作任务。给定自然语言指令,我们的框架构建了一个任务级和运动级计划,该计划经过验证可以达到推断的符号目标。 Text2Motion 使用技能库 Q 函数中编码的可行性启发法来指导大型语言模型的任务规划 ...
人工智能代理对新颖性的适应能力以及与预期行为的一致性对于其有效部署至关重要。强化学习(RL)利用新颖性作为探索手段,但智能体常常难以处理新情况,从而阻碍了泛化。为了解决这些问题,我们提出了 HackAtari,这是一个为最常见的 RL 基准(Atari 学习环境)引入受控新颖性的框架 ...
我们推出了 LayerSkip,这是一种用于加速大型语言模型 (LLM) 推理的端到端解决方案。首先,在训练期间,我们应用层丢失,早期层的丢失率较低,后面层的丢失率较高,以及所有 Transformer 层共享相同出口的早期退出损失。其次,在推理过程中,我们表明这种训练方法提高了早期层提前退出的准确性,而无需向模型添加任何辅助层或模块 ...
虽然需要更深的卷积网络才能在视觉感知任务中实现最大准确度,但对于许多输入来说,较浅的网络就足够了。我们通过学习在每个输入的基础上跳过卷积层来利用这一观察结果。我们引入了 SkipNet,一种改进的残差网络,它使用门控网络根据前一层的激活有选择地跳过卷积块 ...
本文探索了一种提高语言模型零样本学习能力的简单方法。我们表明,指令调优——对通过指令描述的任务集合进行语言模型的参数——可以显着提高未见过的任务的零样本我们采用137B参数预训练语言模型,并针对通过语言指令模板表达的60多个NLP任务对此进行指令调整... ...
过度参数化的 Transformer 网络在各种自然语言处理任务(例如机器翻译、语言建模和问答)中获得了最先进的结果。这些模型包含数亿个参数,需要大量的计算,并且容易出现过度拟合。在这项工作中,我们探索了 LayerDrop,一种结构化的 dropout 形式,它在训练期间具有正则化效果,并允许在推理时进行有效的修剪 ...
基于代理的建模和仿真已发展成为对复杂系统进行建模的强大工具,提供对不同代理之间的突发行为和交互的见解。将大型语言模型集成到基于代理的建模和仿真中,为增强仿真能力提供了一条有前途的途径。本文调查了在基于代理的建模和仿真中使用大型语言模型的前景,研究了它们的挑战和有希望的未来方向 ...
定位和修复软件故障是软件开发中一项耗时且耗费资源的任务。传统的故障定位方法,例如基于频谱的故障定位(SBFL),依赖于测试覆盖数据的统计分析,但往往精度较低。基于学习的技术虽然更有效,但需要大量的训练数据,并且计算成本可能很高 ...