文本指导的图像编辑涉及根据语言指令修改源图像,通常需要更改对小的本地区域。但是,现有方法会生成整个目标图像,而不是仅选择性地再生预期的编辑区域。这导致(1)不必要的计算成本,以及(2)重建非编辑区域的偏见,这会损害预期编辑的质量 ...
最近对可概括对象检测的研究吸引了越来越多的注意力,并带有图像级标签的大型数据集的额外弱监督。但是,弱监督的检测学习通常会遭受图像与框标签不匹配,即 ...
随着大型语言模型(LLMS)越来越多地与外部工具相互作用,用于工具使用的奖励建模已成为一个关键但毫无疑问的领域。现有的奖励模型,主要是针对自然语言输出培训的,难以评估基于工具的推理和执行。为了量化这一差距,我们介绍了FC-RewardBench,这是第一个旨在系统地评估奖励模型在工具称呼方案中的性能的基准 ...
大语言模型(LLM)的快速进步已引起了一种新类别的自主AI系统,称为深度研究(DR)代理。这些代理人旨在通过利用动态推理,自适应长期计划,多跳信息检索,迭代工具使用和生成结构化分析报告的结合来解决复杂的多转化信息研究任务。在本文中,我们对构成深层研究代理的基础技术和建筑组件进行了详细的分析 ...
在时间数据中检测异常已经在各种现实世界应用中引起了极大的关注,旨在确定异常事件并减轻潜在危害。在实践中,情况通常涉及段级标签(检测到具有时间点段的异常事件)和未标记的数据(未检测到的事件),而理想的算法结果应该是点级预测。因此,培训数据和目标之间的巨大标签信息差距使任务具有挑战性 ...
开放世界对象检测(OWOD)是一项具有挑战性且现实的任务,超出了标准对象检测任务的范围。它涉及检测已知对象和未知对象,同时将学习的知识集成到未来的任务中。但是,“未知性”水平取决于上下文 ...
常规语言模型(LM)安全对准依赖于反应性的,不相交的程序:攻击者利用静态模型,然后进行防御性微调来弥补暴露的漏洞。这种顺序的方法造成了不匹配的 - 攻击者过度地过度地过度防御,而后卫永远落后于新兴威胁。为了解决这个问题,我们提出了一种自我重视,这是一种在线自我播放的增强学习算法,其中攻击者和后卫代理商通过连续互动共同发展 ...
语音自我监督的预训练可以有效地改善下游任务的性能。但是,以前的自我监督学习(SSL)的语音方法,例如休伯特和Best-RQ,专注于利用双向背景的非毒物编码器,并且缺乏对下游流模型的足够支持。为了解决此问题,我们介绍了带有随机预测量化(NEST-RQ)的基于 Token 预测的下一个基于标记的语音预训练方法 ...