大型视觉模型(LVLMS)在多模式任务中表现出出色的表现,但仍然容易受到绕过内置安全机制的越狱攻击,以引起限制性的内容产生。现有的Black-Box越狱方法主要依赖于对抗文本提示或图像扰动,但是这些方法可以通过标准内容过滤系统高度检测,并且表现出低查询和计算效率。在这项工作中,我们提出了跨模式的对抗性多模式混淆(CAMO),这是一种新颖的黑盒越狱攻击框架,将恶意提示分解为语义上良性的视觉和文字片段 ...
0 0 0 2025/08/27 arXiv:2506.16760v1 hhhhh
有毒在线帖子的广泛传播对社会越来越损害。但是,关于中文检测有毒语言的研究显着落后。现有的数据集缺乏对有毒类型和表达式的细粒注释,并且忽略了间接毒性的样品 ...
0 0 0 2025/08/27 arXiv:2305.04446v1 abala
流程奖励模型(PRMS)通过测试时间缩放(TTS)增强了大语言模型(LLM)的数学推理能力(LLMS)的希望。但是,它们整合到多模式推理中仍然没有探索。在这项工作中,我们迈出了在多模式数学推理中解锁PRM的潜力的第一步 ...
0 0 0 2025/08/27 arXiv:2501.04686v5 wozengyi
随着现代基于Internet的平台(例如亚马逊机械土耳其人)的成功,从非专家那里收集大量手动标记样品是正常的。基于预期的最大化更新的Dawid-Skene算法已广泛用于从嘈杂的众包标签中推断出真正的标签。但是,DAWID-SKENE方案需要所有数据才能执行每种EM迭代,并且对于流数据或大型数据而言可能是不可行的 ...
0 0 0 2025/08/27 arXiv:1512.02393v2 lpfgss
SoftMax函数对于 Transformer 的注意至关重要,该函数将注意力评分的每一行归一化,从而达到1,从而实现了优于其他替代功能的卓越性能。但是,当注意力分数的某些元素接近极值(例如接近一个或零的概率)时,SoftMax函数可能会面临梯度消失的问题。在本文中,我们建议通过修改$ softmax(x)$为$ x \ cdot softmax(x)$及其正常化的变体$ \ frac {(x-m ...
0 0 0 2025/08/27 arXiv:2502.18277v1 xubiao
仇恨言论的扩散对社会造成了重大伤害。仇恨的强度和方向性与与目标相关的目标紧密相关。但是,中文中有关仇恨言论检测的研究落后了,现有数据集缺乏跨度级的细粒注释 ...
0 0 0 2025/08/27 arXiv:2501.15451v3 abala

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)