在本文中,我们表明,当Genai-Power应用程序之间的通信依赖于基于抹布的推断时,攻击者可以发起我们称为Morris-II的计算机蠕虫样链反应。这是通过制定对抗性自我复制提示来完成的,从而触发生态系统中的一系列间接及时注射级联,并强迫每个受影响的应用程序执行恶意动作并损害其他应用程序的抹布。我们评估了蠕虫在Genai驱动的电子邮件助手的Genai生态系统中创建一系列机密用户数据提取的性能,并分 ...
0 0 0 2025/05/12 arXiv:2403.02817v2 0x211
后门攻击通过注射触发器和修改标签来毒害训练数据的子集,从而将人造漏洞引入模型中。已经探索了各种触发设计策略来攻击文本分类器,但是,捍卫此类攻击仍然是一个开放的问题。在这项工作中,我们提出了BFClass,这是一个新型的有效的无背后培训框架,用于文本分类 ...
0 0 0 2025/05/12 arXiv:2109.10855v1 gh666
由大型语言模型(LLM)提供动力的当前推荐系统通常由于缺乏明确的逻辑结构而使其推理能力不足。为了解决此限制,我们介绍了COT-REC,该框架通过合并两个关键过程:用户偏好分析和项目感知评估,将思想链(COT)推理集成到LLM驱动的建议中。 COT-REC分为两个关键阶段:(1)确定用户偏好和项目感知的个性化数据提取,以及(2)个性化数据应用程序,在此信息中利用此信息来完善建议 ...
0 0 0 2025/05/12 arXiv:2502.13845v2 Lum0s
最近的任何模型(SAM)已成为一种新的范式视觉基础模型,展示了有效的零弹性概括和灵活的提示。尽管SAM在各个领域发现了应用和适应,但其主要限制在于无法掌握对象语义。在本文中,我们介绍了Sambor,以将SAM与端到端框架中的开放式对象检测器无缝整合 ...
0 0 0 2025/05/12 arXiv:2312.03628v2 120001098
已经证明,深度神经网络正面临着一种称为后门攻击的新威胁,对手可以通过中毒培训数据集将后门注入神经网络模型。当输入包含一些特殊模式称为后门触发器时,带有后门的模型将执行恶意任务,例如对手指定的错误分类。在文本分类系统中,模型中插入的后门会导致垃圾邮件或恶意语音逃脱检测 ...
0 0 0 2025/05/12 arXiv:2007.12070v3 gh666
鉴于视觉 Transformer 的力量,新的学习范式,预训练然后提示,使其更加有效地解决下游的视觉识别任务。在本文中,我们从后门攻击的角度确定了对这种范式的新型安全威胁。具体来说,在这项工作中,一个称为开关 Token 的额外提示 Token 可以打开后门模式 ...
0 0 0 2025/05/12 arXiv:2405.10612v1 gh666
随着深度神经网络(DNN)的增长,它们对计算资源的要求变得巨大,这使外包培训变得更加流行。但是,在第三方平台上的培训可能会引入潜在的风险,即恶意培训师将返回后dnns,该培训通常在干净的样品上行为,但每当触发器在测试时间出现触发器时,输出目标是错误的分类。如果不知道触发因素,就很难将良性DNN与后门区分开 ...
0 0 0 2025/05/12 arXiv:2110.14430v1 gh666
通用触发器(Unitrigger)是一种最近提供的强大对抗性文本攻击方法。利用基于学习的机制,unitrigger生成了固定短语,当将其添加到任何良性输入中时,可以将文本神经网络(NN)模型的预测准确性降低到目标类中接近零。为了防止这种可能造成重大伤害的攻击,我们在本文中借用了网络安全社区的“蜜罐”概念,并提出了基于蜜罐的防御框架Darcy,这是针对Unitrigger的防御框架 ...
0 0 0 2025/05/12 arXiv:2011.10492v3 gh666

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)