低秩自适应 (LoRA) 是一种利用权重矩阵低秩自适应的参数高效微调方法,已成为微调预训练模型(例如大型语言模型和扩散模型)的流行技术。尽管 LoRA 在实践中取得了巨大成功,但其理论基础在很大程度上仍未得到探索。本文通过理论上分析 LoRA 的表达能力,迈出了弥合这一差距的第一步 ...
0 0 0 2025/01/14 arXiv:2310.17513v3 liukai
大型语言模型 (LLM) 通过即时工程展示新兴的情境学习能力。大规模生成模型的最新进展进一步扩大了它们在现实世界语言应用中的用途。然而,提高 LLM 在自然语言理解和问题回答方面的普遍性和真实性的关键挑战仍未得到充分探索 ...
0 0 0 2025/01/14 arXiv:2312.15918v2 liukai
我们建议微调大型语言模型以生成稳定的材料。虽然非正统,但在文本编码的原子数据上微调大型语言模型实现起来很简单而且可靠,大约 90% 的采样结构遵守原子位置和电荷的物理约束。使用来自学习的 ML 势和黄金标准 DFT 计算的船体能量计算,我们表明我们最强大的模型(微调的 LLaMA-2 70B)可以以大约两倍的速度生成预计亚稳态的材料(49% vs 28%) )CDVAE,一种竞争扩散模型 ...
0 0 0 2025/01/14 arXiv:2402.04379v1 liukai
低分辨率人脸识别(LRFR)在过去几年中受到越来越多的关注。它的应用广泛存在于难以捕捉高分辨率或高质量图像的现实环境中。 LRFR 技术的最大需求之一是视频监控 ...
0 0 0 2025/01/14 arXiv:1805.11519v3 shu
多模态大语言模型(MLLM)已经取得了令人印象深刻的性能,并已在商业应用中投入实际使用,但它们仍然存在潜在的安全机制漏洞。越狱攻击是红队方法,旨在绕过安全机制并发现 MLLM 的潜在风险。现有MLLM的越狱方法往往通过复杂的优化方法或精心设计的图像和文字提示来绕过模型的安全机制 ...
0 0 0 2025/01/14 arXiv:2501.04931v1 dm616703
手眼相机已显示出在基于视觉的机器人操作中实现更高的样本效率和泛化的前景。然而,对于机器人模仿来说,让人类远程操作员用真实的机器人收集大量的专家演示仍然是昂贵的。另一方面,收集人类执行任务的视频要便宜得多,因为它们不需要机器人远程操作的专业知识,并且可以在各种场景中快速捕获 ...
0 0 0 2025/01/14 arXiv:2307.05959v1 veux
获得捕获与疾病进展和治疗监测相关的成像标记物的模型具有挑战性。模型通常基于大量数据以及旨在自动检测的已知标记的注释示例。高注释工作量和已知标记词汇表的限制限制了此类方法的能力 ...
0 0 0 2025/01/14 arXiv:1703.05921v1 15867179802
通用机器人应该能够掌握广泛的任务,并通过利用过去的经验快速学习新的任务。一次性模仿学习(OSIL)通过用(成对)专家演示来训练智能体来实现这一目标,这样在测试时,它就可以直接从一次演示中执行新任务。然而,到目前为止,该框架仅限于对一项任务的许多变体进行训练,以及对同一任务的其他未见过但类似的变体进行测试 ...
0 0 0 2025/01/14 arXiv:2110.13423v2 veux

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)