大型语言模型(LLMS)在广泛的应用中表现出明显的实用性;但是,他们的部署受到安全漏洞的困扰,尤其是越狱攻击。这些攻击通过制定对抗性提示来操纵LLM,从而产生有害或不道德的内容。尽管目前关于越狱攻击的许多研究都集中在单转交互上,但它在很大程度上忽略了历史对话对模型行为的影响 ...
现代机器学习(ML)系统需要大量的培训数据,通常诉诸外部来源。然而,这种做法使他们容易受到后门中毒的攻击。先前的后门防御策略主要集中在识别后门模型或中毒数据特征上,通常在访问清洁数据的假设下运行 ...
事实证明,深度神经网络很容易受到后门攻击的影响。在推理阶段检测触发样品,即 ...
深度神经网络(DNN)容易受到后门攻击的影响,在这种情况下,对手可以通过在模型训练中植入隐藏的后门来恶意触发模型错误分类。本文提出了一个简单而有效的输入级后门检测(称为IBD-PSC)作为“防火墙”,以滤除恶意测试图像。我们的方法是出于令人着迷的现象的动机 ...
深度神经网络(DNN)容易受到后门攻击的影响,在恶意预测操纵的训练过程中,对手在训练过程中嵌入了隐藏的后门触发器。这些攻击对DNN在现实世界中的学习作为服务(MLAAS)设置下的应用构成了巨大威胁,其中部署的模型是完全黑色的框,而用户只能查询并获得其预测。当前,有许多现有的防御能力可以减少后门威胁 ...
开发可以在现实世界环境中顺利执行各种操作和任务的多功能四足动物仍然是一个重大挑战。本文介绍了一种新颖的视觉语言操作(VLA)模型,即机器人专家(更多)的混合物,用于四倍的机器人,旨在引入加固学习(RL),以供微调大规模的VLA模型和大量混合质量数据。更多将多个低级适应模块整合为密集的多模式大型语言模型(MLLM)中的不同专家,形成了稀疏激活的Experts模型 ...
大规模多任务机器人学习的最新进展为在家庭和工业环境中部署机器人车队提供了潜力,使他们能够在各种环境中执行各种任务。但是,在暴露于现实世界的可变性和不确定性时,支持AI的机器人通常会以概括和鲁棒性面临挑战。我们介绍了Sirius-Fleet,这是一个多任务交互式机器人车队学习框架,以应对这些挑战 ...
大规模图像字幕和视觉问题回答数据集的可用性为最近的视觉和语言预训练取得的成功做出了重大贡献。但是,这些数据集通常是根据其原始目标任务继承的过度限制要求收集的(例如 ...