最近的研究表明,学习有意义的内部表示既可以加速生成训练,又可以提高扩散 Transformer 的发电质量。但是,现有方法需要引入其他复杂的表示培训框架,或者依靠大规模的,预先训练的代表基础模型来在原始生成培训过程中提供代表指导。在这项研究中,我们认为扩散 Transformer 固有的独特判别过程使他们能够提供此类指导而无需外部表示组件 ...
0 0 0 2025/05/29 arXiv:2505.02831v4 nmmmml
文本对图像扩散模型在生成和编辑高质量图像方面已取得了重大进步。结果,许多方法探索了扩散模型特征理解和处理下游任务的单个图像的能力,例如 ...
0 0 0 2025/05/29 arXiv:2305.15347v2 assvga
通过可验证的,基于规则的奖励的增强学习的最新进展极大地增强了VLMS/LLM的推理能力和分布式概括,从而消除了需要手动制作的推理链的需求。尽管在一般领域中有这些有希望的发展,但它们向医学成像的转化仍然有限。当前的医疗加强微调(RFT)方法主要集中在近端VQA上,从而限制了该模型参与世界知识检索和灵活的任务适应的能力 ...
0 0 0 2025/05/29 arXiv:2505.19213v1 dm616703
视觉转换器已成功应用于图像识别任务。已经有类似于文本模型中的原始工作的基于多头自注意力( vit \ cit {dosovitskiy2020image},deit \ cit {touvron2021Training})或最近基于谱层( fnet \ cite {lee2021fnet} ...
0 0 0 2025/05/29 arXiv:2304.06446v2 jerome.zhou
正常整合从获得的正常地图中重建3D表面,例如通过光度立体声 ...
0 0 0 2025/05/29 arXiv:2504.00867v1 rcc
在赞助搜索广告的领域中,将广告与用户查询的搜索意图相匹配至关重要。查询对象词(即 ...
0 0 0 2025/05/29 arXiv:2504.05321v1 liuweitang
增强学习(RL)已经看到了四倍的机器人控制取得了许多成功。参考动议的模仿为指导解决方案的解决方案提供了一个简单而强大的先验,而无需精心奖励设计。尽管大量工作使用运动捕获数据或手工制作的轨迹作为参考运动,但相对较少的工作探索了来自基于模型的轨迹优化的参考运动的使用 ...
0 0 1 2025/05/29 arXiv:2210.01247v3 yukun
最近的进步表明,通过基于规则的强化学习(RL)和结果奖励,通过基于规则的强化学习(RL)在多模式大语言模型(MLLM)中取得了成功。但是,这种范式通常缺乏对导致最终HTTP URL结果的思维过程的监督,该模型可能会学习亚最佳推理策略,这可能会阻碍其泛化能力。鉴于此,我们提出了Sophiavl-R1,以尝试在此范式中为思考过程添加奖励信号 ...
0 0 0 2025/05/29 arXiv:2505.17018v1 dm616703

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)