基础模型的质量在很大程度上取决于他们的培训数据。因此,已经付出了巨大的努力。然而,大多数方法都依赖于大量数据的粗粒混合物的手动调整,或者通过手工制作的启发式方法进行过滤 ...
我们介绍了Speak-firsval,这是一个评估框架,旨在评估遵循教学的能力并量化语音意识语言模型(SLM)中的灾难性遗忘。最近的SLM将语音感知与大语言模型(LLMS)相结合,经常由于以语言为中心的培训而降低文本功能。现有的基准测试将语音感知与跟随教学的联系混为一谈,阻碍了对这些独特技能的评估 ...
大型视力预估计模型的快速缩放使微调任务在计算资源低的设备上越来越困难。我们探索了一种称为“分离的调谐”的新型视觉适应范式,该范式将大型验证模型视为在强大的云服务器上运行的独立特征提取器。微调在仅具有低计算资源的设备上执行(CPU,无GPU,小内存等 ...
为了应对大型预训练模型的全面微调所需的广泛参数更新所带来的挑战,以低级别适应(LORA)为例,参数有效的微调(PEFT)方法已经出现。洛拉(Lora)简化了微调过程,但在低级别矩阵中的冗余水平和有限的效力中可能仍然在增加其排名中的有限效力。为了解决这些问题,一个自然的想法是增强低级矩阵学习过程的独立性和多样性 ...
将代理AI集成到科学发现中标志着研究自动化的新领域。这些能够推理,计划和自主决策的AI系统正在改变科学家如何执行文献综述,产生假设,进行实验和分析结果。这项调查提供了针对科学发现,对现有系统和工具进行分类的代理AI的全面概述,并强调了化学,生物学和材料科学等领域的最新进展 ...
大型语言模型(LLM)表现出了非凡的功能,但经常在需要复杂推理的任务上面临挑战。虽然经过思考链(COT)促使推理显着增强了推理,但它不加选择地为所有查询产生了冗长的推理步骤,从而导致了实质性的计算成本和效率低下,尤其是对于简单的输入而言。为了解决这个关键问题,我们引入了ADACOT(自适应链),这是一个新颖的框架,使LLMS能够自适应地决定何时调用COT ...
我们给出了一个基于模型的代理,该代理会根据其与环境的互动来构建代表其对世界的知识。世界模型试图解释其互动,同时也对自己可以获得的奖励感到乐观。我们将这种乐观主义定义为程序和计划者之间的逻辑约束 ...
路面是车轮或机器人脚的唯一接触介质。重建道路表面对于无人车和移动机器人至关重要。关于神经辐射场(NERF)和高斯裂开(GS)的最新研究在场景重建中取得了显着的结果 ...