大型语言模型(LLM)广泛用于自然语言理解和文本生成。 LLM模型依赖于称为LLM解码的时间耗尽的步骤来生成输出 Token 。几项先前的工作着重于使用并行性技术(例如批处理和投机解码)提高LLM解码的性能 ...
0 0 0 2025/04/22 arXiv:2502.15470v2 jane88
低级适应性(LORA)是一种自然的方法,可以在通信受限的机器学习设置(例如联合学习的跨设备)中进行填充。在联邦学习的背景下研究洛拉的先前工作重点是改善洛拉对异质性和隐私性的稳健性。在这项工作中,我们考虑了进一步提高联邦洛拉(Lora)的沟通效率的技术 ...
0 0 0 2025/04/22 arXiv:2406.05233v1 IQ_QI
如今,大型语言模型(LLM)是最重要的新兴机器学习应用程序之一。但是,由于其巨大的模型尺寸和内存足迹的运行时增加,LLM推论由于由多个GPU组成的传统系统缺乏记忆容量,具有适度的高带宽内存。此外,由于LLM包含许多带宽的内核内核,仅关注记忆容量而不考虑带宽会导致严重的性能降级 ...
0 0 0 2025/04/22 arXiv:2504.14893v1 jane88
视觉自动回归的模型通常粘附在栅格级``下一步的预测''范式,它忽略了视觉内容中固有的空间和时间位置。具体来说,视觉 Token 与它们在空间或时间上相邻的 Token 与远距离的图表相比,视觉 Token 与该论文相比,我们的新型图表(我们在邻近的范围内,我们都在邻近的模型中,都有一个新颖的模型。自回归视觉生成是一种渐进的支出过程,遵循近对``下一步的邻居预测''机制 ...
0 0 0 2025/04/22 arXiv:2503.10696v1 hwrabbit
大型语言模型(LLMS)已转换了代码生成,但是它们在硬件设计中的应用产生的门数为38 \%-1075 \%\%比人类设计高。我们提出了CircuitMind,这是一个多代理框架,通过三个关键创新来实现人类竞争效率:语法锁定(将生成限制为基本逻辑大门),检索授权的生成(启用知识驱动的设计)和双重奖励优化(与效率平衡正确)。为了评估我们的方法,我们介绍了TC-Bench,这是Turncomplete生 ...
0 0 0 2025/04/22 arXiv:2504.14625v1 jane88
数据的体积和复杂性正在迅速增长。熟练数据库查询语言对于制作有效查询是关键的。随着编码助理变得越来越普遍,有很大的机会来增强数据库查询语言 ...
0 0 0 2025/04/22 arXiv:2404.02933v4 xoxoal
最近,Chatgpt取得的杰出成功引发了人们对人工智能(AI)的新兴趣,而视觉语言模型(VLMS)的进步将这种热情推向了新的高度。 VLMS与以前的AI方法不同,该方法通常将不同的任务作为判别模型,VLMS将任务作为生成模型,并与视觉信息相结合,从而可以处理更具挑战性的问题。一个高度实用的领域,遥感(RS)字段也接受了这一新趋势,并引入了几种基于VLM的RS方法,这些方法表现出了有希望的性能和巨大 ...
0 0 0 2025/04/22 arXiv:2410.17283v3 lunwenfanyi
我们介绍了一种无训练方法,用于高斯脱落中的特征场渲染。我们的方法是基于每个高斯在最终渲染中的影响力的加权总和,将2D功能带入预先训练的3D高斯。尽管大多数基于训练的特征场渲染方法在2D分割处表现出色,但在3D分割而无需后处理时性能较差,但我们的方法在2D和3D分割中都取得了高质量的结果 ...
0 0 0 2025/04/22 arXiv:2411.15193v1 ajplus

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)