作为实现语义通信的关键技术之一,端到端优化的神经联合源通道编码(JSCC)在过去几年中取得了长足的进步。推动模型适应性或神经JSCC的应用多样性的许多最近作品的一般趋势是基于卷积神经网络(CNN)骨干的基础,其模型容量尚未有限,固有地导致对传统编码传输系统的系统编码增益较低。在本文中,我们建立了一个新的神经JSCC主链,它也可以灵活地适应单个模型内的各种渠道条件和传输速率,我们的开源项目旨在促进该 ...
0 0 0 2025/03/09 arXiv:2308.09361v2 wendaozhao
本文介绍了DNACT,这是一种语言条件的多任务策略框架,该框架集成了神经渲染前训练和扩散培训,以在动作序列空间中执行多模式学习。为了学习一项可概括的多任务策略,DNACT的前训练阶段利用神经渲染来提炼2D语义特征,从稳定的扩散到3D空间等基础模型,这为场景提供了全面的语义理解。因此,它允许各种应用程序来挑战需要丰富的3D语义和准确几何形状的机器人任务 ...
0 0 0 2025/03/09 arXiv:2403.04115v2 漏视野
大型语言模型(LLM)是人工智能领域中最有希望的发展之一,软件工程社区很容易地注意到它们在软件开发生命周期中的潜在作用。开发人员通常要求LLMS生成代码片段,提高生产率,同时也可能引入所有权,隐私,正确性和安全性问题。先前的工作强调了主流商业LLM产生的代码通常不安全,其中包含漏洞,错误和代码气味 ...
0 0 0 2025/03/09 arXiv:2412.14841v2 shenglijun
我们介绍了无穷小的双齿bialgra上的无穷小型HOPF模块和双模型的类别。我们证明它们对应于双重的无限版本上的模块和双模型。我们表明,有一种自然而非明显的方法可以从任意的无穷小双子骨中构建一个前代数,而从icoriangular Infitsimal Bialgebra中构建了一个拟南芥状的代数 ...
0 0 0 2025/03/09 arXiv:math/0211074v3 L2301183018
 Transformer 模型中的KV缓存技术旨在减少冗余计算,而牺牲了大幅增加的存储器使用情况,从而使KV缓存压缩是一个重要而流行的研究主题。最近,最先进的KV缓存压缩方法实现了不平衡的,每头分配算法,该算法会动态调整每个注意力头的KV缓存预算,从而在单GPU方案中实现出色的性能。但是,我们观察到,部署多GPU推断时,这种不平衡的压缩会导致重大失衡,因为某些GPU变得负担重大,而另一些GPU仍然 ...
0 0 0 2025/03/09 arXiv:2502.15804v1 tea5
多模式推理的最新进展在很大程度上忽略了音频方式。我们介绍了Audio-Reasoner,这是一种大规模的音频语言模型,用于在音频任务中进行深入推理。我们精心策划了具有简单注释的大规模和多样化的多任务音频数据集 ...
0 0 0 2025/03/09 arXiv:2503.02318v1 sealaes
通过支持较大的模型,更长的输入和较大的批次大小,将大型语言模型(LLMS)状态陈述在推理期间降低运营成本。但是,现有内存卸载机制的设计不会考虑延迟服务级目标(SLO)。结果,它们要么导致经常违反SLO的行为,要么不利于宿主记忆,从而导致经济损失,从而击败了记忆的卸载目的 ...
0 0 0 2025/03/09 arXiv:2502.08182v1 tea5
由于性能强大,验证的语言模型已成为许多NLP任务的标准方法,但训练非常昂贵。我们提出了一个简单有效的学习框架TLM,该框架不依赖大规模预处理。给定一些标记的任务数据和大型的一般语料库,TLM使用任务数据作为查询来检索一般语料库的一小部分,并共同优化了从头开始的任务目标和语言建模目标 ...
0 0 0 2025/03/09 arXiv:2111.04130v2 haoyb22

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)