尽管在大型语言模型(LLMS)与建议任务的最新进步已经显示出巨大的潜力和有希望的整体绩效,但在复杂方案中,这些符合的建议LLM仍然面临着挑战。这主要是由于当前的一致性方法着重于优化LLM,以直接生成用户反馈而无需纳入审议。为了克服这一限制并为建议开发更可靠的LLM,我们提出了一项新的审议建议任务,该任务将有关用户偏好的明确推理作为额外的一致性目标 ...
我们提出Abex,这是一种用于低资源自然语言理解(NLU)任务的新颖有效的生成数据增强方法。 Abex基于抽象和扩展,这是一种用于生成输入文档多种形式的新型范式 - 我们首先将文档转换为简洁,抽象描述,然后基于扩展所得的抽象生成新文档。为了了解扩展抽象描述的任务,我们首先在带有抽象文档对的大规模合成数据集上训练BART ...
我们提出了一种以人为中心的方法,用于对3D房间布局进行采样和合成其2D图像,以获取具有完美每像素地面真相的大规模2D/3D图像数据。提出了归因的空间和-OR图(S-AOG)代表室内场景。 S-AOG是概率的语法模型,其中终端节点是对象实体 ...
在本文中,我们考虑了同时检测对象并在图像中推断其视觉属性的问题,即使对于那些在训练阶段没有手动注释的人来说,类似于开放式摄影的情况。为了实现这一目标,我们做出以下贡献:(i)我们从一种幼稚的两阶段方法开始,用于开放式对象检测和属性分类,称为clip-attr。候选对象首先是使用离线RPN提出的,然后将其分类为语义类别和属性; (ii)我们将所有可用的数据集和培训与联合策略结合在一起,以遵守剪辑模型 ...
对话系统研究中的多转交互是指系统在多个对话转弯之间保持上下文的能力,从而使其能够产生连贯的和上下文相关的响应。大语言模型(LLM)的最新进步已大大扩大了多转交互的范围,超越了聊天机器人,以使其与用户或环境更具动态的代理相互作用。在本文中,我们对LLM的多转弯功能进行了重点评论,这对于广泛的下游应用程序至关重要,包括对话搜索和建议,咨询服务和交互式辅导 ...
变形金刚,尤其是仅解码器的变体,是大多数现代大型语言模型的骨干。但是,除了简单的$ 1 $ layer案件外,我们对它们的表现力没有太多了解。由于难以分析多层模型,所有以前的工作都依赖未经证实的复杂性猜想来显示多层 Transformer 的局限性。在这项工作中,我们证明了第一个$ \ textIt {无条件} $较低的限制,仅针对多层解码器的 Transformer ...
大型语言模型 (LLM) 作为自主代理表现出了巨大的潜力,特别是在基于网络的任务中。然而,现有的LLM网络代理严重依赖昂贵的专有LLM API,而开放的LLM缺乏必要的决策能力。本文介绍了 WebRL,这是一种自我进化的在线课程强化学习框架,旨在使用开放式 LLM 来训练高性能网络代理 ...
最近的视力语言预训练模型在零射击识别任务中表现出显着的概括能力。以前的开放式摄影3D场景理解方法主要集中于使用图像或文本监督的培训3D模型,同时忽略了所有模式的集体强度。在这项工作中,我们提出了一个密集的多模式对准(DMA)框架,以密集地将不同的方式与共同的空间相结合,以最大程度地提高其协同益处 ...