大语模型(LLMS)中的越狱漏洞是指通过精心制作提示或后缀从模型中提取恶意内容的方法,这引起了研究界的极大关注。但是,该模型很容易检测到主要关注语义水平的传统攻击方法。这些方法忽略了在不同输出阶段的模型对齐保护功能的差异 ...
0 0 0 2025/09/07 arXiv:2409.07503v1 chenzhuo-wang
将语言模型 (LM) 与精心策划的人类反馈保持一致对于控制其在实际应用中的行为至关重要。最近的几种策略优化方法,例如 DPO 和 SLiC,可以作为传统的人类反馈强化学习 (RLHF) 方法的有希望的替代方案。在实践中,人类反馈通常以多个响应的排名列表的形式出现,以分摊阅读提示的成本 ...
0 0 0 2025/09/07 arXiv:2402.01878v3 ymx
描述宏观磁矩动力学的Landau-Lifshitz-Gilbert(LLG)方程在很短的时间内找到了其有效性的极限。从缓慢的自由度(磁化)和快速自由度之间的特征时间尺度分离来,这一限制的原因是充分理解的。快速自由度被引入,作为负责惯性的角动量的变化 ...
0 0 0 2025/09/06 arXiv:1602.08470v1 朝暮颜
大型语言模型(LLM)表现出令人印象深刻的现实实用性,体现了人工有用的智能(AUI)。但是,他们的自适应推理能力 - 人工智能(AGI)的标志 - 仍然是脆弱的。尽管LLM似乎成功地进行了常识性推理,编程和数学,但他们努力跨越新的环境中的算法理解 ...
0 0 0 2025/09/06 arXiv:2502.19402v3 waterfall666
我们引入了并发模块化试剂(CMA),该框架策划了多个基于大型语言模型(LLM)的模块,这些模块完全异步运行但保持连贯且容忍的行为循环。该框架通过让意图从自主过程之间的语言介导的相互作用中脱颖而出来解决代理体系结构的长期困难。这种方法可以通过将推理到LLM的同时执行的模块,模块间交流以及单个共享的全局这种HTTP URL的组合结合来实现灵活,适应性和上下文依赖性的行为,这是对Minsky Mind  ...
0 0 0 2025/09/06 arXiv:2508.19042v1 hwrabbit
在从图像中删除对象方面取得了显着的进步,但仍面临两个挑战:1)努力处理对象的视觉效果,例如阴影和反射; 2)轻松生成形状般的文物和意外内容。在本文中,我们提出了Video4Relemoval,这是一个大规模数据集,其中包含100,000多个具有逼真的对象阴影和反射的高质量样本。通过从视频框架和现成的视觉模型中构建对象背景对,可以大大降低数据获取的人工成本 ...
0 0 0 2025/09/06 arXiv:2501.07397v3 X.K
本文介绍了Navion,这是一种用于视觉惯性探测器(VIO)的节能加速器(VIO),该加速器可以自动导航微型机器人(例如纳米无人机),以及在便携式设备上的虚拟/增强现实 ...
0 0 0 2025/09/06 arXiv:1809.05780v1 ututjinh
对长篇小说和小说的叙事理解是一个富有挑战性的领域,归因于其复杂的情节线,并纠缠不清,经常在人物和实体之间发展。考虑到LLM在扩展上下文和高计算成本上的推理减少,基于检索的方法在实践中仍然是关键作用。但是,由于其无状态的单步检索过程,传统的抹布方法可能会缺乏,这通常会忽略在远程上下文中捕获相互联系的动态性质 ...
0 0 2 2025/09/06 arXiv:2508.10419v1 KingXHJ

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)