我们建议微调大型语言模型以生成稳定的材料。虽然非正统,但在文本编码的原子数据上微调大型语言模型实现起来很简单而且可靠,大约 90% 的采样结构遵守原子位置和电荷的物理约束。使用来自学习的 ML 势和黄金标准 DFT 计算的船体能量计算,我们表明我们最强大的模型(微调的 LLaMA-2 70B)可以以大约两倍的速度生成预计亚稳态的材料(49% vs 28%) )CDVAE,一种竞争扩散模型 ...
低分辨率人脸识别(LRFR)在过去几年中受到越来越多的关注。它的应用广泛存在于难以捕捉高分辨率或高质量图像的现实环境中。 LRFR 技术的最大需求之一是视频监控 ...
多模态大语言模型(MLLM)已经取得了令人印象深刻的性能,并已在商业应用中投入实际使用,但它们仍然存在潜在的安全机制漏洞。越狱攻击是红队方法,旨在绕过安全机制并发现 MLLM 的潜在风险。现有MLLM的越狱方法往往通过复杂的优化方法或精心设计的图像和文字提示来绕过模型的安全机制 ...
手眼相机已显示出在基于视觉的机器人操作中实现更高的样本效率和泛化的前景。然而,对于机器人模仿来说,让人类远程操作员用真实的机器人收集大量的专家演示仍然是昂贵的。另一方面,收集人类执行任务的视频要便宜得多,因为它们不需要机器人远程操作的专业知识,并且可以在各种场景中快速捕获 ...
获得捕获与疾病进展和治疗监测相关的成像标记物的模型具有挑战性。模型通常基于大量数据以及旨在自动检测的已知标记的注释示例。高注释工作量和已知标记词汇表的限制限制了此类方法的能力 ...
通用机器人应该能够掌握广泛的任务,并通过利用过去的经验快速学习新的任务。一次性模仿学习(OSIL)通过用(成对)专家演示来训练智能体来实现这一目标,这样在测试时,它就可以直接从一次演示中执行新任务。然而,到目前为止,该框架仅限于对一项任务的许多变体进行训练,以及对同一任务的其他未见过但类似的变体进行测试 ...
当前模仿学习的主导范式依赖于对专家行为的强有力监督来学习模仿“什么”和“如何”。我们追求另一种范式,其中代理首先在没有任何专家监督的情况下探索世界,然后将其经验提炼成具有新颖的前向一致性损失的目标条件技能策略。在我们的框架中,专家的作用只是传达目标(即 ...
搜索增强生成(RAG)是一种强大的技术,可以促进建立注册和注册数据的语言模型,其中数据隐私是一个关键问题。尽管广泛的研究已经证明了大型语言模型(LLM)的隐私风险,但 RAG 技术可能会汇集 LLM 生成的固有行为,从而提出目前尚未充分探讨的新隐私问题。在此项工作中,我们利用新颖的攻击方法进行了广泛的关联研究,论证了 RAG 系统在泄露隐私中的情况搜索数据库方面的脆弱性... ...