知识蒸馏(KD)是一种有价值但充满挑战的方法,可以通过从高性能但繁琐的教师模型中学习来增强紧凑的学生网络。但是,先前用于图像恢复的KD方法忽略了蒸馏过程中学生的状态,采用了限制KD能力的固定解决方案空间。此外,仅依靠L1型损失努力来利用图像的分布信息 ...
0 0 0 2025/04/17 arXiv:2412.08939v2 howieeyang
大型语言模型(LLMS)在多个任务上表现出令人印象深刻的性能,并越来越多地部署在现实世界应用程序中。但是,尤其是在高风险设置中,了解LLM的输出何时可能不可靠变得至关重要。根据答案是否值得信赖,系统可以选择将问题路由将问题路由到另一个专家,或者以其他方式依靠安全的默认行为 ...
0 0 0 2025/04/17 arXiv:2410.13284v2 yes
大型语言模型(LLMS)倾向于在序列中大量参加第一个 Token  - 创建了所谓的注意力台。许多作品已经详细研究了这一现象,提出了各种利用或减轻这种现象的方法。注意水槽已与定量困难,安全问题和流媒体关注有关 ...
0 0 0 2025/04/17 arXiv:2504.02732v2 muzhi
从人类反馈(RLHF)中学习的强化已成为将大语言模型(LLMS)与人类偏好保持一致的关键技术。为了学习奖励功能,大多数现有的RLHF算法都使用Bradley-Terry模型,该模型依赖于对人类偏好的假设,这些假设可能无法反映现实世界判断的复杂性和可变性。在本文中,我们提出了一种强大的算法,以在此类奖励模型中提高现有方法的性能 ...
0 0 0 2025/04/17 arXiv:2504.03784v3 meow
灾难性遗忘是持续学习的主要挑战之一。为了解决此问题,一些现有方法对新任务的优化空间施加了限制性限制,以最大程度地减少对旧任务的干扰。但是,这可能会导致新任务的性能不令人满意,尤其是当新任务与旧任务密切相关时 ...
0 0 0 2025/04/17 arXiv:2202.02931v1 19396386025
深层神经网络的一个有趣的特性是存在对抗性例子,可以在不同的体系结构之间转移。这些可转移的对抗性示例可能严重阻碍了基于神经网络的深层应用程序。先前的工作主要使用小型数据集研究可传递性 ...
0 0 0 2025/04/17 arXiv:1611.02770v3 Hahhhnxsm
单像超分辨率可以在需要可靠的视觉流以监视任务,处理远距离操作或研究相关视觉细节的环境中支持机器人任务。在这项工作中,我们为实时超级分辨率(称为Edgesrgan)提出了一个有效的生成对抗网络模型(可在此HTTPS URL上获得代码)。我们采用了原始SRGAN的量身定制体系结构和模型量化,以提高CPU和Edge TPU设备上的执行,最多达到200 fps的推断 ...
0 0 0 2025/04/17 arXiv:2209.03355v2 howieeyang
图形用户界面(GUI)代理为自动化复杂的数字任务提供跨平台解决方案,具有转换生产力工作流程的巨大潜力。但是,它们的性能通常受到高质量轨迹数据的稀缺性的限制。为了解决这一限制,我们在专门的中期训练阶段提出了培训视觉语言模型(VLM),推理密集型任务,然后研究如何纳入这些任务如何促进对GUI计划方案的概括 ...
0 0 0 2025/04/17 arXiv:2504.10127v2 bage

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)