源代码(上下文)及其解析的抽象语法树(AST;结构)是同一计算机程序的两个补充表示。传统上,机器学习模型的设计师主要依赖于结构或背景。我们提出了一个新模型,该模型共同学习源代码的上下文和结构 ...
0 0 0 2025/04/01 arXiv:2103.11318v1 15966829631
最近的研究表明,使用预训练的视觉基础模型的视觉位置识别方法(VPR)方法可以实现有希望的性能。在我们以前的工作中,我们提出了一种新颖的方法,以实现对VPR(Selavpr)的基础模型的无缝适应。该方法可以同时产生全球和局部特征,这些特征专注于判别地标,以通过参数效率高效的适应方法来识别两阶段VPR的位置 ...
0 0 0 2025/04/01 arXiv:2502.16601v1 Archer1989
Reranker模型的目的是根据给定查询和段落之间的语义相似性对段落进行重新排列,这些语义相似性由于检索功能增强的一代的广泛应用而最近受到了更多关注。大多数以前的方法都应用了点上的编码,这意味着它只能将每个段落输入的查询上下文编码到模型中。但是,对于Reranker模型,给定查询,段落之间的比较结果更为重要,这称为listwise编码 ...
0 0 0 2025/04/01 arXiv:2501.07111v1 2889932594
在过去的几年中,图像重建的3D重建场迅速发展,首先是在引入神经辐射场(NERF)的引入,而最近3D高斯脱落(3DGS)。在训练和推理速度以及重建质量方面,后者为NERF提供了显着优势。尽管3DGS适用于密集的输入图像,但非结构化点云类似表示迅速效果,以使其更具挑战性的非常稀疏的输入图像设置(e ...
0 0 0 2025/04/01 arXiv:2403.19495v2 ajplus
确保自动驾驶汽车等自主机器人的安全需要在不同的驾驶场景中进行广泛的测试。仿真是以经济有效且可扩展的方式进行此类测试的关键因素。神经渲染方法已经流行起来,因为它们可以以数据驱动的方式从收集的日志构建模拟环境 ...
0 0 0 2025/04/01 arXiv:2411.16816v3 zsh231264
大型语言模型(LLM)推论一次使用自回旋的方式来产生一个 Token ,与早期的机器学习(ML)模型(例如,仅编码器 Transformer 和卷积神经网络)相比,其操作强度明显较低。同时,LLMS具有较大的参数尺寸,并使用键值缓存来存储上下文信息。现代LLMS支持上下文窗口,最多100万个 Token 来生成多功能文本,音频和视频内容 ...
0 0 0 2025/04/01 arXiv:2502.07578v2 mangoyu
随着在线视频内容的迅速增长,文本视频检索(TVR)的任务变得越来越重要。 TVR中的一个关键挑战是视频和文本之间的信息不对称:视频本质上更丰富,而其文本描述通常仅捕获这种复杂性的片段。本文介绍了一个以数据为中心的新颖,以数据为中心的框架来通过丰富文本表示形式来更好地匹配视频内容的丰富性来弥合这一差距 ...
0 0 0 2025/04/01 arXiv:2408.07249v2 2889932594
基于 Transformer 的大型语言模型(LLMS)在处理边缘设备上的长序列时会遇到挑战,这是由于注意机制的二次复杂性和键值(KV)缓存的记忆需求不断增长。现有的KV缓存优化与长输入任务中的不可逆转 Token 驱逐作用,而替代序列建模架构在已建立的 Transformer 基础架构中采用昂贵。我们提出了Edgeinfinite,这是一种用于无限上下文的内存效率解决方案,通过可训练的内存门控模 ...
0 0 0 2025/04/01 arXiv:2503.22196v1 haoyb22

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)