随着大型视觉模型(LVLM)的快速发展,确保其安全性已成为至关重要的研究领域。这项调查提供了对LVLM安全性的全面分析,涵盖了诸如攻击,防御和评估方法之类的关键方面。我们介绍了一个统一的框架,该框架整合了这些相互关联的组件,为LVLM的脆弱性和相应的缓解策略提供了整体观点 ...
0 0 0 2025/09/08 arXiv:2502.14881v1 jiaochenchen
数据规模不断增长,需要具有较大内存能力和高内存性能的有效内存子系统。分解架构已成为当今云和边缘计算的有前途的解决方案,以扩展其可扩展性和弹性。作为分类的关键部分,分解内存在许多方面都面临许多设计挑战,包括硬件可伸缩性,体系结构,软件系统设计,应用程序可编程性,资源分配,电源管理等 ...
0 0 0 2025/09/07 arXiv:2503.20275v2 nhzlx
长期思考链(COT)推理模型的最新进展提高了复杂任务的性能,但它们遭受了过度思考的困扰,这会产生冗余的推理步骤,尤其是对于简单的问题。本文重新审视了长COT模型的推理模式,观察到短的婴儿床模式有效地提供了简洁的推理,而在挑战性的场景中,长cot模式在短床挣扎的情况下表现出色。为了使模型能够利用这两种模式,我们提出了无问题的微调(QFFT),这是一种微调方法,可在培训过程中消除输入问题,并仅从长CO ...
0 0 0 2025/09/07 arXiv:2506.12860v1 the_highflyer
微调开源视觉语言模型(VLMS)创造了一个关键但毫无疑问的攻击表面:基本VLM中的脆弱性可以保留在微调的变体中,从而使它们容易受到可转移越狱攻击的影响。为了证明这种风险,我们介绍了一种模拟的合奏攻击(SEA),这是一种新颖的灰色越狱方法,在这种方法中,对手可以完全访问基本VLM,但对微调目标的重量或训练配置不了解。为了提高越野VLM的越狱可转移性,SEA结合了两种关键技术:微调轨迹模拟(FTS)和 ...
0 0 0 2025/09/07 arXiv:2508.01741v1 hhhhh
解码算法对于开放式文本生成至关重要,将潜在表示变成连贯且有意义的输出。本文调查了文本生成中的自我增强效应以及对减轻其的重复惩罚的有效性。但是,确定最佳重复罚款价值是具有挑战性的 ...
0 0 0 2025/09/07 arXiv:2310.14971v1 Shylie
Vygotsky关于近端发展和动态评估区域的概念强调了个性化学习的重要性,该学习适应了学习者的需求和能力,并可以更有效地学习。在这项工作中,我们介绍了一种名为e-gostky的新型自适应学习引擎,该引擎以这些概念为基础,以个性化电子学习系统中的学习路径。 E-Gostky使用机器学习技术来选择将挑战学生但不会压倒性的下一个内容项,使学生保持其近端发展区域 ...
0 0 0 2025/09/07 arXiv:1904.12268v1 Shylie
我们介绍了EXREC,这是一个通过语义知识追踪的个性化锻炼建议的一般框架。我们的方法基于这样的观察,即现有的练习建议方法通过知识跟踪(KT)模拟学生的表现,但它们经常忽略两个关键方面:(a)问题的语义内容和(b)学生学习的顺序,结构化的进步。为了解决这个问题,我们的EXREC提出了一条端到端的管道,从注释问题的KC和学习其语义表征到培训KT模型并优化多种强化学习(RL)方法 ...
0 0 0 2025/09/07 arXiv:2507.11060v1 Shylie
布局到图像生成旨在创建复杂的场景,以精确控制对象的位置和安排。现有的作品表明,预先训练的文本对图像扩散模型可以实现此目标,而无需对任何特定数据培训。但是,他们经常以不精确的本地化和不切实际的人工制品面临挑战。为了关注这些弊端,我们提出了一种新颖的无培训方法Winwinlay ...
0 1 0 2025/09/07 arXiv:2506.15563v1 yisinoya

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)