预训练的大型语言模型 (LLM) 表现出卓越的通用语言处理能力,但对内存和计算资源有很高的要求。作为一种强大的压缩技术,二值化可以将模型权重极大地降低至仅 1 位,从而降低了昂贵的计算和内存需求。然而,现有的量化技术无法在超低位宽下保持 LLM 性能 ...
0 0 0 2025/02/05 arXiv:2402.04291v2 haiyao
准确地描绘了遥感(RS)图像中现实世界的景观需要精确的对象与其环境之间的对齐。但是,自然图像的大多数现有合成方法优先考虑前景控制,通常将背景减少到纯质地。这忽略了前景与背景之间的相互作用,这可能导致RS场景中的不一致 ...
0 0 0 2025/02/05 arXiv:2412.08464v2 COO
图形神经网络(GNN)被广泛用于学习图形结构化数据的强大表示。最近的工作表明,将知识从自学任务转移到下游任务可以进一步改善图表表示。但是,就优化目标和培训数据而言,自我监督任务和下游任务之间存在固有的差距 ...
0 0 0 2025/02/05 arXiv:2107.08765v2 nininininin666
基于图像的虚拟尝试(VTON)旨在通过将输入服装转移到目标人的形象上来产生虚拟的尝试结果。但是,配对的服装模型数据的稀缺性使现有方法在VTON中实现高概括和质量方面具有挑战性。另外,它限制了生成无面膜试用的能力 ...
0 0 0 2025/02/05 arXiv:2501.15891v1 jeft
大型语言模型(LLMS)主要通过生成API请求来提高任务完成效率。 API请求生成的准确性显着决定了LLM完成任务的能力。由于LLM内部的固有幻觉,因此很难有效,准确地生成正确的API请求 ...
0 0 0 2025/02/05 arXiv:2410.06943v1 zhw869461332
以前的人形机器人研究工作将机器人视为两足动物移动操纵平台,只有脚和手接触环境。但是,我们人类使用所有身体部位与世界互动,例如 ...
0 0 0 2025/02/05 arXiv:2502.01465v1 chuhonlin
大规模预训练语言模型在回忆训练语料库中呈现的事实知识方面出奇地好。在本文中,我们通过引入知识神经元的概念,对事实知识如何存储在预训练的 Transformer 中进行了初步研究。具体来说,我们检查了伯特的填空完形填空任务... ...
0 0 0 2025/02/05 arXiv:2104.08696v2 jjduys
O1模型的令人印象深刻的数学和科学推理能力为大型语言模型(LLM)(LLM)的最新突破彰显了高质量培训数据在跨STEM学科中提高LLM绩效的重要重要性。尽管数学社区受益于越来越多的精选数据集,但高等教育水平的科学领域长期以来一直遭受了可比资源的稀缺。为了解决这一差距,我们提出了SCP-116K,这是一种新的大规模数据集,该数据集为116,756个高质量的问题解决方案对,使用简化且高度可推广的管道自 ...
0 0 0 2025/02/05 arXiv:2501.15587v1 piupiu

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)