这项工作提出了一种新颖而简单的顺序学习策略,以在视频和文本上培训模型,以进行多模式分析。为了估计看不见的分发数据的情感极性,我们引入了一种多模型模型,该模型使用我们的学习策略在单个源域或多个源域中进行了训练。该策略始于文本中的学习域不变特征,然后从视频中学习稀疏的域 - 无知功能,并在文本中学到的选定功能的协助下 ...
0 0 0 2025/07/12 arXiv:2409.04473v1 蛙isme
我们提出Pix2Seq,这是一个简单而通用的对象检测框架。与明确整合有关该任务的先验知识的现有方法不同,我们将对象检测作为一种语言建模任务,以观察到的像素输入为条件。对象描述(e ...
0 0 0 2025/07/12 arXiv:2109.10852v2 yiweima
基于变形金刚的模型(例如BERT)一直是NLP最成功的深度学习模型之一。不幸的是,由于其全部注意机制,其核心局限性之一是对序列长度的二次依赖性(主要是在记忆方面)。为了解决这个问题,我们提出了大鸟,这是一种稀疏的注意机制,可降低这种二次依赖性线性 ...
0 0 0 2025/07/12 arXiv:2007.14062v2 DamnMan
模型合并是一种有希望的轻型模型授权技术,不依赖昂贵的计算设备(例如GPU)或需要收集特定培训数据 ...
0 0 0 2025/07/12 arXiv:2404.05188v2 kkkk
大型语言模型(LLM)通过优化传统的自然语言处理(NLP)工作流程,具有显着高级的人工智能,从而促进了它们与各种系统的集成。许多这样的NLP系统(包括我们的NLP系统)直接合并了LLM。但是,这种方法要么带来昂贵的成本,要么在微调后会产生次优的性能 ...
0 0 0 2025/07/12 arXiv:2504.13471v3 kkkk
尽管知识编辑已在单语设置中进行了广泛的研究,但在多语言上下文中仍然没有被忽视。这项调查使有关多语言知识编辑(MKE)的最新研究系统化,这是一个越来越多的模型编辑子域,旨在确保事实编辑可靠地跨语言概括。我们提出了MKE方法的全面分类学,涵盖基于参数的,基于内存的,微调和超网络方法 ...
0 0 0 2025/07/12 arXiv:2505.14393v1 kkkk
将大型语言模型(LLM)调整为新的和多样化的知识对于它们在现实世界应用中的持久有效性至关重要。这项调查提供了最先进的方法概述,以扩展LLM的知识,重点是整合各种知识类型,包括事实信息,领域专业知识,语言水平和用户偏好。我们探索技术,例如持续学习,模型编辑和基于检索的明确适应,同时讨论了知识一致性和可扩展性等挑战 ...
0 0 0 2025/07/12 arXiv:2502.12598v1 kkkk
基于深度学习的端到端自动语音识别(ASR)已取得了长足的进步,但由于现实世界中的域变化,仍在跨域样本上的性能挣扎。测试时间适应(TTA)方法通过在推理时使用测试样本调整模型来解决此问题。但是,当前的ASR TTA方法主要集中在非连续TTA上,与连续TTA相比,该方法限制了跨样本知识学习 ...
0 0 0 2025/07/12 arXiv:2406.11064v2 lin3

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)