已知自然语言处理(NLP)模型容易受到后门攻击的影响,这对NLP模型构成了新的威胁。 NLP模型的事先在线后门防御方法仅关注输入或输出级别的异常,但仍遭受脆弱性攻击和高计算成本的困扰。在这项工作中,我们迈出的第一步在中间功能级别调查了文本中毒样本的不可思议,并提出了一种基于功能的有效在线防御方法 ...
0 0 0 2025/05/13 arXiv:2210.07907v1 gh666
OpenAI的GPT-4O模型,将多模式输入和输出集成到自回归体系结构中,在图像生成中表现出了前所未有的性能。在这项工作中,我们研究了其对图像恢复社区的潜在影响。我们介绍了跨不同恢复任务的GPT-4O的首次系统评估 ...
0 0 0 2025/05/12 arXiv:2505.05621v1 cwd
(gnn))在推荐系统中表现出了令人印象深刻的性能,特别是在协作过滤( cf)中。关键在于聚合用户-项目交互图上的邻域信息以增强用户/项目表示。然而,我们发现这种聚合机制有一个缺点,它放大了交互图中存在的偏差,... ...
0 0 0 2025/05/12 arXiv:2402.13769v1 xxc
尽管由于最近机器学习的逐步能力,推荐系统的巨大发展,但当前的推荐系统仍然容易受到用户和项目在现实情况下的分销转移的影响,从而导致测试环境中的性能急剧下降。在许多常见的应用中,只有稀疏数据的隐式反馈就更加严重。因此,在不同环境中促进推荐方法的性能稳定性至关重要 ...
0 0 0 2025/05/12 arXiv:2202.03984v2 pumpkin
医疗领域中的图像与通用域图像根本不同。因此,直接采用通用域视觉问题答案(VQA)模型是不可行的。此外,医学图像注释是一个昂贵且耗时的过程 ...
0 0 0 2025/05/12 arXiv:2104.01394v1 17662529688
专家混合大语言模型(MoE-LLM)标志着语言模型向前迈出了重要一步,然而,它们在实践中遇到了两个关键挑战:1)专家参数导致相当大的内存消耗和加载延迟; 2)当前激活的专家是多余的,因为许多 Token 可能只需要一个专家。受这些问题的推动,我们研究了 MoE-LLM 并做出了两个关键观察:a) 不同的专家在激活重建误差、路由分数和激活频率方面表现出不同的行为,突出了它们不同的重要性,b) 并非所 ...
0 0 0 2025/05/12 arXiv:2410.06270v2 Daenerays
大型语言模型(LLMS)在各种应用程序上展示了出色的功能时,由于其大量模型大小,在推理期间提出了重大挑战,尤其是在部署在边缘设备上时。激活稀疏性提供了一种有希望的解决方案,可以减少计算和记忆运动,从而更有效地推断,尤其是对于小批量的智障应用程序。但是,目前的方法面临非雷鲁激活函数的限制,这是大多数高级LLM的基础,或者需要进行重大持续训练 ...
0 0 0 2025/05/12 arXiv:2504.19449v1 Daenerays
检索增强的生成(RAG)显着提高了大语言模型(LLMS)的事实准确性和域的适应性。这一进步使他们能够在医疗保健,金融和企业应用程序等敏感领域的广泛部署。 RAG通过整合外部知识来减轻幻觉,但引入了隐私风险和安全风险,特别是数据泄露风险和数据中毒风险 ...
0 0 0 2025/05/12 arXiv:2504.09593v2 0x211

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)