在所有模式都可用的假设下,已经研究了多模式情感分析。但是,这种强大的假设并不总是在实践中存在,并且当缺少部分模式时,大多数多模式融合模型可能会失败。几项工作解决了缺失的模态问题。但是,他们中的大多数仅考虑了单个模式缺失的案例,而忽略了多种方式缺失的更一般的案例 ...
0 0 0 2025/05/25 arXiv:2204.13707v1 huyang
在大型语言模型(LLMS)中,某些神经元可以存储在预训练期间学习的不同知识。尽管知识通常是关系和实体的结合,但尚不清楚某些神经元是否专注于关系本身 - 独立于任何实体。我们假设此类神经元检测到涉及这种关系的输入文本和指导产生中的关系 ...
0 0 0 2025/05/25 arXiv:2502.17355v1 UUU
当前基于解码器的预训练语言模型(PLM)成功地展示了多语言功能。但是,目前尚不清楚这些模型如何处理多语言。我们分析了基于多语言解码器的PLM的神经元级内部行为,专门研究了神经元的存在,这些神经元在仅解码器的多语言PLM中发射``独特''''独特的'' ...
0 0 0 2025/05/25 arXiv:2404.02431v1 UUU
在本文中,我们提出了一种新的语言模型指导字幕方法Lamoc,用于基于知识的视觉问题回答(VQA)。我们的方法采用字幕模型将生成的字幕作为答案预测模型的上下文,该模型是预训练的语言模型(PLM)。作为主要贡献,我们利用预测模型的指导和反馈来提高字幕模型的能力 ...
0 0 0 2025/05/25 arXiv:2305.17006v1 aweek15
基于预训练的语言模型(PLM)(例如双重编码器)的神经检索器在开放域问答(QA)的任务上实现了有希望的表现。它们的有效性可以通过结合跨架构知识蒸馏来进一步达到最新的最新。但是,大多数现有研究只是直接采用常规蒸馏方法 ...
0 0 0 2025/05/25 arXiv:2205.09153v1 snowpigppp
医学图像分割中的单源域概括(SDG)是一项艰巨而重要的任务,因为域移动在临床图像数据集中非常普遍。以前的尝试大多数进行全球/随机增强。它们的增强样品通常不足以多样性和信息性,因此无法涵盖可能的目标域分布 ...
0 0 0 2025/05/25 arXiv:2211.14805v1 Urleaves
医疗图像分割(MIS)中的单源域概括(SDG)旨在使用仅来自一个源域的数据概括一个模型,以从看不见的目标域分割数据。尽管具有数据扩展的可持续发展目标方面取得了长足的进步,但现有方法通常无法完全考虑MIS中普遍存在的细节和不确定领域,从而导致错误分段。本文提出了一种使用不确定性指南的基于傅立叶的语义增强方法,称为“嘉年华”,通过操纵频域中的幅度和相位成分来增强在SDG环境中MIS的基本目标 ...
0 0 0 2025/05/25 arXiv:2406.14308v1 Urleaves
我们为视觉 Transformer 提出了条件位置编码(CPE)方案。与先前的固定或可学习的位置编码不同,这些编码是预先定义且独立于输入 Token 的,CPE是动态生成的,并在输入 Token 的本地邻居上进行条件。结果,CPE可以轻松地将其推广到比训练过程中模型所看到的要长的输入序列 ...
0 0 0 2025/05/25 arXiv:2102.10882v3 No_fake

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)