最近,大型语言模型(LLM)在自然语言处理(NLP)领域取得了巨大成功,推动了不断增长的需求,以将其部署从云到边缘设备扩展。但是,在资源受限的边缘设备上部署LLM会带来重大挑战,包括(1)密集计算和巨大的模型尺寸,(2)自动回归生成过程引入的巨大内存和带宽需求,以及(3)处理长序列的可扩展性有限。为了应对这些挑战,我们提出了Accllm,这是一个全面的加速框架,可以通过算法和硬件共同设计实现高效且 ...
0 0 0 2025/05/12 arXiv:2505.03745v1 wangjun
时间图神经网络(TGNN)在时间图建模中表现出色。但是,现实世界中的时间图通常具有丰富的文本信息,从而产生了时间文本属性图(TTAG)。动态文本语义和不断发展的图形结构的这种组合引入了增强的复杂性 ...
0 0 0 2025/05/12 arXiv:2503.14411v1 wozengyi
持续适应对于一般的自治药物至关重要。例如,通过技能曲目预处理的家用机器人仍然必须适应每个家庭特定的看不见的任务。由此激励的是,基于语言模型中参数有效的微调,先前的作品探索了轻巧的适配器以适应预验证的策略,该策略可以从预读阶段中保留学习的功能并展示良好的适应性表现 ...
0 0 0 2025/05/12 arXiv:2503.18684v2 kavin
数十亿个规模的大语言模型(LLMS)需要在具有大存储HBM和丰富计算能力的昂贵服务器级GPU上部署。随着LLM辅助服务的流行,实现了对预算友好硬件的成本效益的LLM推断成为趋势。广泛的研究将LLM参数从昂贵的GPU转移到主机存储器 ...
0 0 0 2025/05/12 arXiv:2502.16963v1 wangjun
对于当前的视觉模型来说,了解讽刺和幽默是一项具有挑战性的任务。在本文中,我们提出了讽刺图像检测的具有挑战性的任务(检测图像是讽刺是讽刺性的),理解(产生图像背后的原因)和完成(给定的一半图像,从给定的2个选项中选择了另一半,从而使完整的图像是讽刺的讽刺是讽刺性的),并释放了高级数据的YESBUT YESBUT,包含254个符合254的图像,并包含25434的图像。不同的艺术风格,以评估这些任务。数 ...
0 0 0 2025/05/12 arXiv:2409.13592v1 18232448525
图形神经网络(GNN)通过建模近年来实体和关系如何相互作用,在知识图完成(KGC)方面取得了巨大成功。但是,对预测事实的解释并未引起必要的关注。对基于GNN的KGC模型结果的正确解释提高了模型透明度,并帮助研究人员开发更可靠的模型 ...
0 0 0 2025/05/12 arXiv:2401.02290v2 xuexizhanghao
越狱攻击可以有效地操纵开源大语模型(LLM)来产生有害的反应。但是,这些攻击表现出有限的可转移性,未能始终如一地破坏专有LLM。为了可靠地确定专有LLM中的漏洞,这项工作通过分析其对模型意图的影响来调查越狱攻击的转移性 ...
0 0 0 2025/05/12 arXiv:2502.03052v1 whfeLingYu
在这项工作中,我们介绍了一系列对LLM对齐方式的结构转换攻击,在该攻击中,我们使用多种语法空间编码自然语言意图,从简单的结构格式和基本查询语言(例如SQL)到完全由LLMS创建的新型新颖空间和语法 ...
0 0 0 2025/05/12 arXiv:2502.11853v1 whfeLingYu

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)