与人类反馈一致的大型语言模型(LLM)最近引起了极大的关注。但是,它仍然容易受到越狱攻击的影响,在这种袭击中,对手操纵提示诱发有害产出。探索越狱攻击使我们能够调查LLM的脆弱性,并进一步指导我们增强其安全性 ...
0 0 0 2025/06/27 arXiv:2412.15623v1 hhhhh
Recent advances in video generation have been driven by diffusion models and autoregressive frameworks, yet critical challenges persist in harmonizing prompt adherence, visual quality, motion dynamics ...
0 0 0 2025/06/27 arXiv:2504.13074v3 xiewende
基于 Transformer 的顺序推荐(SR)模型已取得了显着的成功。用于计算机视觉和自然语言处理的 Transformer 的自我注意力机制遇到了过度平衡的问题,即 ...
0 0 0 2025/06/27 arXiv:2312.10325v2 ttwt
虽然监督学习在许多应用中取得了巨大进步,但无监督学习尚未得到如此广泛的采用,并且仍然是人工智能的一项重要且具有挑战性的工作。在这项工作中,我们提出了一种通用的无监督学习方法,从高维数据中提取有用的表示,我们称之为对比预测编码。我们模型的关键见解是通过使用强大的自回归模型预测潜在空间中的未来来学习此类表示... ...
0 0 0 2025/06/27 arXiv:1807.03748v2 pdssunny
深度神经网络生成的3D数据一直在研究社区引起越来越多的关注。现存的大多数作品诉诸常规表示,例如体积网格或图像收集;但是,这些表示形式掩盖了几何变换下3D形状的自然不变性,并且还遭受了许多其他问题。在本文中,我们从单个图像中解决了3D重建的问题,从而生成了直接向前的输出形式 - 点云坐标 ...
0 0 0 2025/06/27 arXiv:1612.00603v2 qiuyan
以下指令评估了大型语言模型(LLMS)的生成遵守用户定义约束的输出的能力。但是,现有的基准通常依赖于模板的约束提示,这些提示缺乏现实世界使用的多样性并限制了细粒度的绩效评估。为了填补这一空白,我们提出了一个多维约束框架,其中包括三个约束模式,四个约束类别和四个难度级别 ...
0 0 0 2025/06/27 arXiv:2505.07591v1 musker
生成3D点云具有挑战性但高度期望。这项工作提出了一种新颖的自回旋模型Pointgrow,可以从划痕或在语义上下文中生成多样化和现实的点云样本。该模型会反复运行,鉴于其先前生成的点,根据条件分布对每个点进行采样,从而使点相关性得到充分说明,并且可以更好地解释3D形状生成过程 ...
0 0 0 2025/06/27 arXiv:1810.05591v3 qiuyan
生成的对抗网络(GAN)是强大的生成模型,但遭受了训练不稳定的困扰。最近提议的Wasserstein Gan(Wgan)在稳定培训甘斯的过程中取得了进展,但有时仍然可以仅产生低质量的样品或无法收敛。我们发现,这些问题通常是由于使用惠甘(WGAN)在批评家对Lipschitz的限制中实施lipschitz的约束,这可能导致不希望的行为 ...
0 0 0 2025/06/27 arXiv:1704.00028v3 qiuyan

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)