生成和判别模型之间的协同作用受到了越来越多的关注。虽然歧视性的对比语言图像预训练(剪辑)在高级语义上表现出色,但它在感知细粒度的视觉细节方面挣扎。通常,为了增强表示形式,生成模型将Clip的视觉特征作为重建条件 ...
0 0 0 2025/03/31 arXiv:2503.19480v1 likelc
标准的单片图像超分辨率通过固定的下采样内核从高分辨率图像创建了配对的训练数据。但是,现实世界中的超级分辨率(RWSR)在低分辨率输入中面临未知的降解,始终缺乏配对的训练数据。现有方法通过在培训输入中学习复杂的合成增强来学习盲目的一般模型来解决这个问题;他们牺牲了特定降解的表现,以更广泛地概括许多可能的概括 ...
0 0 0 2025/03/31 arXiv:2407.07302v1 Sally
扩散模型在各种图像生成、编辑、增强和翻译任务中表现出了令人印象深刻的性能。特别是,预训练的文本到图像稳定扩散模型以其强大的生成先验为具有挑战性的现实图像超分辨率(Real-ISR)和图像风格化问题提供了潜在的解决方案。然而,沿着这条线的现有方法通常无法保持忠实的像素级图像结构 ...
0 0 0 2025/03/31 arXiv:2308.14469v4 Sally
全向图像(odi)通常用于现实世界的视觉任务 ...
0 0 0 2025/03/31 arXiv:2404.10312v2 韩文清
图形神经网络(GNN)精通图形表示学习,并在多功能任务(例如节点分类和链接预测)上实现有希望的性能。通常,全面的超参数调整对于完全解锁GNN的最佳性能至关重要,尤其是对于复杂的任务,例如大图和远程图上的节点分类。这通常与高计算和时间成本以及仔细设计适当的搜索空间有关 ...
0 0 0 2025/03/31 arXiv:2410.05697v1 xiaochao
单眼深度估计对于3D场景的理解和下游应用是基本的。但是,即使在监督的设置下,由于缺乏完整的几何限制,它仍然具有挑战性和不适。尽管场景可以由数百万像素组成,但高级图案的模式较少 ...
0 0 0 2025/03/31 arXiv:2304.06334v1 LiuAobin
在过去的几年中,基于嵌入的知识图(KG)的完成引起了很多关注。当前的大多数算法都将kg视为一个多向标记的图形,并且缺乏捕获原理图信息基础语义的能力。在单独的发展中,在大型语言模型(LLMS)中捕获了大量信息,该信息彻底改变了人工智能领域 ...
0 0 1 2025/03/31 arXiv:2308.00081v4 mysterySu
随着大型语言模型(LLMS)在学术界和行业中都广泛关注,有效评估其能力变得越来越重要和具有挑战性。现有的评估方法可以大致分为两种类型:手动评估和自动评估。手动评估虽然全面,但通常是昂贵且资源密集的 ...
0 0 0 2025/03/31 arXiv:2503.04809v2 zl1994

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)