对于有效的培训和准确评估检索系统是必要的,大量相关判断是必要的。通常,这些判断是由人类评估者做出的,使这一过程昂贵且费力。托马斯最近的一项研究 ...
0 0 0 2025/03/18 arXiv:2406.06519v1 hegangzi
我们推出了eva,这是一种以视觉为中心的基础模型,旨在仅使用可公开访问的数据来探索大规模视觉表示的局限性。eva vit,用于重建以可见图像块为条件的屏蔽图像文本对齐的视觉特征。通过这个借口任务 ...
0 0 0 2025/03/18 arXiv:2211.07636v2 24601
这项工作解决了当前联合学习方法的关键局限性,该方法主要集中在均匀的任务上,忽略了本地设备上的任务多样性。我们提出了使用多输出高斯流程(MOGP)在本地一级的多任务学习的原则集成,并在全球层面进行了联合学习。 MOGP处理相关的分类和回归任务,提供一种自然量化不确定性的贝叶斯非参数方法 ...
0 0 0 2025/03/18 arXiv:2412.10897v2 Frazy
希望启用能够自动组装的机器人。对物体部件的结构理解在这项任务中起着至关重要的作用,但仍未探索。在本文中,我们专注于从一组零件几何形状组中设置家具组件的设置,这实质上是一个六高的零件姿势估计问题 ...
0 0 0 2025/03/18 arXiv:2207.01779v1 Tyranitar
我们提出了segnext,一种用于语义分割的简单卷积网络架构。由于自注意力在编码空间信息方面的效率,最近基于 Transformer 的模型在语义分割领域占据了主导地位。在本文中,我们证明卷积注意力是一种比 Transformer 中的自注意力机制更高效、更有效的编码上下文信息的方法 ... ...
0 0 0 2025/03/18 arXiv:2209.08575v1 bbbb
我们通过稀疏的线性映射为$ \ ell_2 $降低维度的两个不同而简单的结构,这些映射稀疏:只有$ o(\ varepsilon)$  - 嵌入矩阵的每一列中的条目的一部分是非Zero的,即可达到造成损坏$ 1+\ varepsilon $具有高概率,同时还可以达到高概率,同时还可以实现Asmptally Assmptely的数字数字。这些是为所有参数值提供子构成稀疏性的第一个结构,可改善Achl ...
0 0 0 2025/03/18 arXiv:1012.1577v6 Daenerays
除了 Transformer 之外,重要的是要探索如何利用元构造器的能力,这是一种对 Transformer 的性能改进至关重要的体系结构。先前的研究仅用于骨干网络。与以前的研究不同,我们在语义分割任务中更广泛地探索元构型体系结构的能力 ...
0 0 0 2025/03/18 arXiv:2408.07576v2 澹台心木
神经辐射场(NERF)最近在计算机视觉社区中引起了人们的兴趣激增,以便合成现实世界场景的影像现实主义的新颖观点。但是,NERF的一个局限性是其准确的相机姿势学习场景表示形式的要求。在本文中,我们提出了束调整的神经辐射场(BARF),用于从不完美(甚至是未知)相机姿势训练NERF的训练 - 学习神经3D表示和注册相机框架的联合问题 ...
0 0 0 2025/03/18 arXiv:2104.06405v2 13886416427

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)