大型语言模型(LLM)在文本生成中已经达到了人类水平的流利度,这使人写作和LLM生成的文本的区别变得复杂。这增加了滥用的风险,并强调了对可靠探测器的需求。然而,现有检测器对分布(OOD)数据和攻击数据表现出较差的鲁棒性,这对于实际情况至关重要 ...
0 0 0 2025/04/12 arXiv:2502.15902v1 15966829631
使用大型语言模型(LLMS)集成平台而无需透明的LLM被调用可以带来潜在的安全风险。具体而言,攻击者可能会利用此黑框方案将恶意模型和嵌入病毒在提供给用户的代码中。在这种情况下,用户越来越迫切需要清楚地识别与他们正在互动的LLM,以避免在不知不觉中成为恶意模型的受害者 ...
0 0 0 2025/04/12 arXiv:2501.16029v1 15966829631
我们提出了Sentibert,这是BERT的一种变体,可有效捕获作曲情感语义。该模型将上下文化表示与二进制选区解析树结合起来,以捕获语义组成。全面的实验表明,Sentibert在短语级别的情感分类上实现了竞争性能 ...
0 0 0 2025/04/12 arXiv:2005.04114v4 cengjunlin22
事实证明,根据不同的卷积块或上下文嵌入的汇总特征已被证明是增强语义分割特征表示的有效方法。但是,大多数当前流行的网络体系结构倾向于忽略由1)逐步下采样操作引起的功能聚合过程中的未对准问题,而2)不加选择的上下文信息融合。在本文中,我们探讨了解决此类特征错位问题的原则,并创造了与特征一致的分割网络(Alignseg) ...
0 0 0 2025/04/12 arXiv:2003.00872v2 SGN001
大型语言模型(LLMS)在各种自然语言处理任务上表现出色。但是,它们容易产生流利而又不真实的反应,称为“幻觉”。幻觉会导致错误信息的传播并在关键应用中造成伤害 ...
0 0 0 2025/04/12 arXiv:2406.11267v1 kiki
最近开发的sora模型[1]在视频生成方面表现出了卓越的能力,引发了关于其模拟现实世界现象的能力的激烈讨论。尽管它越来越受欢迎,但缺乏既定的指标来定量评估其对现实世界物理的保真度。在本文中,我们引入了一个新的基准,该基准根据生成的视频是否符合现实世界的物理原理来评估其质量... ...
0 1 0 2025/04/11 arXiv:2402.17403v1 shabaocheng
在先前关于知识蒸馏的研究中,logit蒸馏的重要性经常被忽略。为了振兴logit蒸馏,我们通过基于逻辑的语义属性重新考虑其计算并探索如何更有效地利用它来介绍一种新的观点。逻辑通常包含大量的高级语义信息;但是,使用logits计算kullback-leibler(KL)差异的常规方法并不能解释其语义属性 ...
0 0 0 2025/04/11 arXiv:2411.10693v2 smallz
以前的知识蒸馏方法已经显示出他们在模型压缩任务上的令人印象深刻的表现,但是,很难解释他们转移的知识如何有助于提高学生网络的性能。在这项工作中,我们专注于提出一种具有高解释性和竞争性能的知识蒸馏方法。我们首先重新审视主流CNN模型的结构,并揭示拥有识别级别歧视输入区域的能力对于CNN执行分类至关重要 ...
0 0 0 2025/04/11 arXiv:2304.12777v1 smallz

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)