评估一致的大语言模型 (LLM) 识别和拒绝不安全用户请求的能力对于安全、符合策略的部署至关重要。然而,现有的评估工作面临三个限制,我们通过我们提出的基准 SORRY-Bench 来解决这些限制。首先,现有方法经常使用不安全主题的粗粒度分类法,并且过度代表了一些细粒度主题 ...
深度不平衡的回归(DIR),该目标值具有高度偏斜的分布并且也是连续的,这是一个有趣但又不受欢迎的机器学习问题。尽管最近的作品已经表明,结合各种基于分类的正规化器可以产生增强的结果,但分类的作用在DIR中仍然难以捉摸。此外,这样的正规化器(e ...
大型语言模型(LLMS)需要仔细的安全对准以防止恶意产出。尽管重大研究重点是减轻有害内容的产生,但增强的安全通常会带来过度狂欢的副作用,在这种情况下,LLMS可能会拒绝无害的提示,并且会变得较小。尽管已经在经验上观察到了过度互惠的问题,但由于制作提示的困难似乎有害但是良性的,因此系统的测量很具有挑战性 ...
在快速发展的大型语言模型 (LLM) 领域,确保稳健的安全措施至关重要。为了满足这一关键需求,我们提出了 \emph{SALAD-Bench},这是一个专门为评估 LLM、攻击和防御方法而设计的安全基准。 SALAD-Bench 以其广度而著称,以其规模大、丰富的多样性、跨越三个级别的复杂分类法和多功能性超越了传统基准 ...
开放式视频检测(OVD)是一项具有挑战性的任务,可以从一组无限制的类别(包括培训期间看不见的类别)中对对象进行分类。现有的开放式视频探测器受到复杂的视觉文本未对准和长尾类别的不平衡的限制,导致在挑战性的情况下表现出色。为了解决这些局限性,我们引入了MQADET,这是一种通用范式,用于通过利用多模式大语言模型(MLLMS)的跨模式推理能力来增强现有的开放式摄氏探测器 ...
具有大视觉模型(LVM)的文化学习(ICL)通过减少对广泛标签的依赖,在医疗图像分割中提供了有希望的途径。但是,LVMS的ICL性能很大程度上取决于视觉提示的选择,并且遭受了域移动的折磨。尽管利用LVM进行医疗任务的现有作品主要集中在以模型为中心的方法上,但我们研究了如何选择良好的视觉提示以促进对医疗领域的概括 ...
很难精确地注释对象实例及其在3D空间中的语义,因此,合成数据被广泛用于这些任务,例如类别级别6D对象姿势和大小估计 ...
消耗错误信息会导致影响个人和社会的负面后果。为了减轻错误信息对人类信念的影响,已经开发了有关内容准确性和源可靠性的背景的算法标签。由于算法用于估计信息准确性的语言特征可能会随着时间的推移而发生变化,因此了解其时间动态非常重要 ...