图形处理单元(GPU)已成为加速异质系统科学应用的标准。但是,随着GPU越来越快,使用GPU加速应用程序的一种潜在的性能瓶颈是启动几个细粒核的开销。 CUDA图可以通过启用基于图的执行模型来解决这些绩效挑战,该模型将操作捕获为节点和依赖性作为静态图中的边缘 ...
0 0 0 2025/02/03 arXiv:2501.09398v1 muuuchen
从模型构建的角度来看,我们提出了适合过度参数化模型的范式转移。从哲学上讲,心态是将模型拟合到未来的观察结果,而不是观察到的样本。从技术上讲,给定一种生成未来观察的插补方法,我们通过根据其样本对应物和自适应$ \ textit {duality函数} $优化了所需预期损耗函数的近似来拟合这些未来观察结果 ...
0 0 0 2025/02/03 arXiv:2206.01824v5 xietianjian
语音转换(VC)的现有客观评估指标并不总是与人类的看法相关。因此,具有此类标准的培训VC模型可能无法有效地改善转换语音的自然性和相似性。在本文中,我们提出了基于深度学习的评估模型,以预测人类转化的语音评分 ...
0 0 0 2025/02/03 arXiv:1904.08352v3 13724122396
分子表示学习在各种下游任务(例如分子性质预测和药物设计)中起着至关重要的作用。为了准确代表分子,图形神经网络(GNN)和图形 Transformer (GTS)在自我监督预读的领域中显示出潜力。但是,现有方法通常忽略了分子结构与电子信息之间的关系,以及分子内的内部语义推理 ...
0 0 0 2025/02/03 arXiv:2412.16483v1 pdssunny
大型语言模型(LLM),例如GPT-4和Llama3可以理解复杂的命令和处理各种任务。这一进步有助于他们在控制各种任务的无人机和机器人方面的应用。但是,现有的LLM服务系统通常采用先到先得的(FCFS)批处理机制,该机制无法解决机器人应用的时间敏感要求 ...
0 0 0 2025/02/03 arXiv:2412.18695v1 yunfeng
参数高效的微调(peft)对于在资源有限的情况下定制大型语言模型(llm)至关重要。尽管针对密集架构llm已有多种peft方法,llm的peft仍处于探索之中。在这项工作中,Moe)架构的llm的peft方法,这项工作的内容主要有三个:(:(),发现特定任务的,发现特定任务的,发现特定任务的路由分布往往高度集中,而不同任务的激活专家的分布差异很大... ...
0 0 0 2025/02/03 arXiv:2407.01906v2 luffy
在本文中,我们介绍了语义 -  sam,这是一种通用图像分割模型,能够以任何所需的粒度分割和识别任何内容。我们的模型提供了两个关键优势:语义意识和粒度丰富。为了实现语义感知,我们跨三个粒度整合多个数据集,并引入对象和零件的解耦分类... ...
0 0 0 2025/02/03 arXiv:2307.04767v1 zy
大型语言模型(LLMS)越来越多地被部署在聊天机器人,代码编辑器和会话代理等应用程序中。 LLM的一个关键特征是他们能够与人类或外部工具进行多转交互,从而实现各种各样的任务。多转交互中的每个新请求都取决于中间状态,特别是键值(k,v)scaches ...
0 0 0 2025/02/03 arXiv:2412.16434v1 yunfeng

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)