无人驾驶飞机(UAV)通常用于未知环境中的任务,在未知环境中可能无法使用确切的数学模型。本文提供了一个框架,用于使用加固学习,以允许无人机在这种环境中成功导航。我们进行了模拟和实际实施,以展示无人机如何成功学习在未知环境中导航 ...
0 0 0 2025/04/16 arXiv:1801.05086v1 xdd
广泛应用的大语言模型(LLM)可以产生类似人类的内容,从而引起人们对LLM滥用的担忧。因此,重要的是要构建强大的AI生成的文本(AIGT)检测器。当前工作仅考虑文档级AIGT检测,因此,在本文中,我们首先通过合成包含使用LLMS抛光的文档的数据集来引入句子级检测挑战,也就是说,文档包含人类编写的句子和LLMS修改的句子 ...
0 0 0 2025/04/16 arXiv:2310.08903v2 15966829631
我们描述了一种新的生成对抗网络训练方法。关键思想是逐步增长生成器和鉴别器:从低分辨率开始,我们添加新的层,随着训练的进行,模型的细节越来越精细。这既加快了训练速度,又极大地稳定了训练 ...
0 0 0 2025/04/16 arXiv:1710.10196v3 Adrian6476
从用户项目交互矩阵中恢复用户首选项是推荐系统的关键挑战。尽管扩散模型可以从潜在分布中采样和重建偏好,但它们通常无法有效地捕获相似用户的集体偏好。此外,潜在变量在正向过程中降低了纯高斯噪声,从而降低了信噪比,从而降低了性能 ...
0 0 0 2025/04/16 arXiv:2501.00384v1 pumpkin
故事可视化旨在生成一系列与文本中描述的故事相匹配的图像,并且需要生成的图像以满足高质量,与文本描述的一致性以及角色身份的一致性。鉴于故事可视化的复杂性,现有方法通过仅考虑几个特定字符和场景,或要求用户提供每图像控制条件(例如草图),从而大大简化了问题。但是,这些简化使这些方法无能为力 ...
0 0 0 2025/04/16 arXiv:2311.11243v1 xuan
微调大型语言模型 (LLM) 是针对特定应用程序调整预训练模型的常见做法。虽然 LoRA 等方法在微调过程中有效解决了 GPU 内存限制,但它们的性能往往不足,尤其是在多任务场景中。相比之下,Mixtral 8x7B 等专家混合 (MoE) 模型在多任务学习场景中表现出卓越的性能,同时保持了较少的参数数量 ...
0 0 0 2025/04/16 arXiv:2404.15159v3 wanwanaa
在计算和记忆成本方面,微调大语言模型(LLMS)非常昂贵。低排名适应(Lora)是最受欢迎的参数效率微调(PEFT)方法之一,通过近似模型更改$ \ delta w \ in \ in \ mathbb {r}^{r}^{m \ times nimeS n} $,通过下降量$ a \ a \ a \ n \ n \ n \ n \ ar {m mathbb {r}^{m \ times n} $  ...
0 0 0 2025/04/16 arXiv:2502.15455v1 wanwanaa
面部衰老是一个复杂的过程,高度依赖于性别,种族,生活方式等多种因素,因此在准确预测任何个人的老化之前,学习全球衰老的人非常具有挑战性。现有的技术通常会产生现实且合理的老化结果,但是重生的图像通常与该人在目标时代的外观不像,因此需要个性化 ...
0 0 0 2025/04/16 arXiv:2411.14521v1 dourcer

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)