在本文中,我们提出了 AutoDAN-Turbo,一种黑盒越狱方法,可以从头开始自动发现尽可能多的越狱策略,无需任何人为干预或预定义范围(例如,指定的候选策略),并将它们用于红色 -团队合作 ...
0 0 0 2025/04/26 arXiv:2410.05295v4 dm616703
大型语言模型(LLMS)在长期推断期间遇到计算挑战,尤其是在注意填充阶段,复杂性随着迅速的长度而倍增。以前缓解这些挑战的努力依赖于固定的稀疏注意模式或基于有限的情况来识别稀疏注意模式。但是,这些方法缺乏有效适应不同输入需求的灵活性 ...
0 0 0 2025/04/26 arXiv:2502.20766v1 lhcezx
模型需要处理培训分配变化的分布(OOD)概括是机器学习的主要挑战。对比性语言图像预训练(剪辑)模型具有令人印象深刻的零击能力,但是在下游任务上剪辑的进一步适应不可思议的OOD表现。本文旨在将剪辑推广到下游任务的分发测试数据 ...
0 0 0 2025/04/26 arXiv:2302.00864v2 likelc
 Token 压缩通过减少冗余 Token 的数量,例如修剪注意力不集中的 Token 或合并类似 Token 来加快视力 Transformer (VIT)的训练和推断 ...
0 0 0 2025/04/26 arXiv:2408.06798v1 link.yu
附着的手臂可以显着提高腿部机器人在几个移动操作任务上的适用性,而车轮或轨道对应物不可能。这种腿部操纵器的标准层次控制管道是将控制器解散到操作和运动的情况下。但是,这是无效的 ...
0 0 0 2025/04/26 arXiv:2210.10044v1 小胖猴
奉承是人类交流的一个重要方面,它可以通过战略的称赞和赞美来促进社会联系,塑造观念并影响行为,从而利用言论的力量有效地建立融洽的关系。因此,它的自动检测可以增强人类相互作用的自然性。为了满足这种需求,我们提出了一个新颖的音频文本数据集,其中包括20个小时的语音和机器学习模型,用于自动奉承 ...
0 1 0 2025/04/26 arXiv:2406.17667v1 liuzhanbo-intern
当前基于 Transformer 的小物体检测方法继续出现,但它们仍然表现出重大的缺点。本文介绍了Heatmap位置嵌入(HMPE),这是一种新型的 Transformer 优化技术,通过通过热图指导自适应的自适应将HTTP URL动态地整合到语义检测信息来增强对象检测性能,并创新了HMPE方法,从而可以可视化HMPE,从而为您提供了可视化的信息,从而为远距离提供了远距离的范围,然后均可用来乘坐H ...
0 0 0 2025/04/26 arXiv:2504.13469v1 Ojuice
LLM代理是AI系统的一种新兴形式,其中大型语言模型(LLMS)用作中心组件,利用各种工具来完成用户分配的任务。尽管具有巨大的潜力,但LLM代理商构成了重大的安全风险。与外部世界互动时,他们可能会遇到攻击者的恶意命令,从而导致执行危险行动 ...
0 0 1 2025/04/26 arXiv:2504.11703v1 dropout

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)