在图像恢复(IR)中,利用分割模型的语义先验是提高性能的常见方法。最近的细分市场模型(SAM)已成为提取高级语义先验以增强IR任务的强大工具。但是,与现有较小的IR模型相比,IR的SAM的计算成本均高 ...
本文提出了一个基于深度学习的边缘检测器,该检测器均受到HED(整体巢边缘检测)和Xception网络的启发。所提出的方法产生的薄边图映射,对于人眼而言是合理的。它可以在任何边缘检测任务中使用,而无需以前的培训或微调过程。作为第二个贡献,已经生成了具有仔细注释边缘的大数据集 ...
大型语言模型(LLM)在代码生成方面取得了令人印象深刻的性能。但是,对于复杂的编程任务,在一个GO中生成正确的解决方案变得具有挑战性,因此一些先前的作品已经设计了程序维修方法来提高代码生成性能。在这项工作中,我们提出了自我欺骗,它教授了一个大型语言模型,可以通过几次示范进行调试其预测程序 ...
低级适应性(LORA)及其变体在减少大型 Transformer 网络的可训练参数和内存要求方面显示出令人印象深刻的结果,同时保持微调性能。重量更新的低级别性质固有地限制了微调模型的表示功能,因此,在复杂的任务上可能会损害性能。这提出了一个关键的问题:当观察到洛拉和标准微调之间的性能差距时,是由于可训练的参数数量减少还是等级缺陷?本文旨在通过引入Randlora来回答这个问题,Randlora是一 ...
对用户从历史行为中的动态和不断发展的偏好进行建模对于推荐系统来说是一项挑战和至关重要的。以前的方法采用顺序神经网络(例如 ...
时间序列基础模型已经在零拍学习中表现出强大的性能,这使得它们非常适合预测相关培训数据稀缺的现实应用程序中快速发展的模式。但是,这些模型中的大多数都依赖于 Transformer 体系结构,这会随着输入长度的增加而产生二次复杂性。为了解决这个问题,我们介绍了TSMAMBA,这是时间序列的线性复杂基础模型,预测建立在Mamba Architecture上 ...
随着对计算缩放计算(数据和参数)的热情逐渐减少,测试时间缩放(TTS),也称为``测试时间计算''的热情已成为一个突出的研究重点。最近的研究表明,TTS可以进一步引起大语模型(LLM)的解决问题的能力,这不仅可以在专门的推理任务(例如数学和编码)中进行重大突破,还可以在开放式Q&A等一般任务中进行。但是,尽管最近在这一领域努力爆炸了,但仍需要进行全面了解的全面调查 ...
解决强化学习中的任务并不是一件容易的事。由于代理的目标是最大化累积奖励,因此它经常学会利用奖励信号中的漏洞和错误指定,从而导致不良行为。虽然约束可以解决这个问题,但对于一般约束没有封闭形式的解决方案... ...