图形卷积神经网络(GCNN)是深度学习技术到图形结构数据问题的有力扩展。我们从经验上评估了GCNN的几种合并方法,以及这些图形合并方法与三种不同架构的组合:GCN,TAGCN和GraphSage。我们确认图形合并,尤其是Diffpool,提高了流行的图形分类数据集的分类精度,并发现TAGCN平均具有比GCN和Graphsage相当或更好的精度,尤其是对于具有较大且稀疏图结构的数据集 ...
0 0 0 2025/07/05 arXiv:2004.03519v1 re-spurs
从复杂的基因组数据中解释深层,可解释的生物学推理是阻碍科学发现的主要AI挑战。当前的DNA基础模型尽管有很强的序列表示,但仍在多步推理和缺乏固有的透明,生物学直觉的解释中挣扎。我们介绍了Bioreason,这是一种开创性的建筑,该建筑首次将DNA基础模型与大型语言模型(LLM)深入融合 ...
0 0 0 2025/07/05 arXiv:2505.23579v1 dropout
随着大语言模型和视觉模型的快速扩散,AI代理已经从孤立的,特定于任务的系统演变为能够感知,推理和行动而无需人力干预的自主互动实体。随着这些代理在虚拟和物理环境中扩散,从虚拟助手到体现的机器人,对统一,以代理为中心的基础结构的需求变得很重要。在这项调查中,我们将互联网(IOA)作为基础框架介绍,以使异构代理之间的无缝互连,动态发现和协作编排在大规模上进行协作 ...
0 0 0 2025/07/05 arXiv:2505.07176v1 HaoLiu0209
随着多模式基础模型在智能代理系统中的广泛应用,移动设备控制,智能助手互动和多模式任务执行等方案逐渐依赖于如此大的模型驱动的代理。但是,相关系统也越来越受到潜在的越狱风险。攻击者可能会通过特定的输入诱使代理绕过原始的行为约束,然后触发某些风险和敏感的操作,例如修改设置,执行未经授权的命令或模仿用户身份,从而为系统安全带来新的挑战 ...
0 0 0 2025/07/05 arXiv:2507.00841v1 hhhhh
大型语言模型(LLM)在开放式对话中取得了重大进展,但是他们无法从长期互动中保留和检索相关信息限制了它们在需要持续个性化的应用中的有效性。已经提出了外部记忆机制来解决此限制,从而使LLMS能够保持对话连续性。但是,现有的方法面临两个主要挑战 ...
0 0 0 2025/07/05 arXiv:2503.08026v1 elonmusk
大型语言模型(LLM)最近在对话代理中被广泛采用。但是,用户和代理商之间越来越长的互动累积了广泛的对话记录,这使得具有有限上下文窗口的LLM难以维持连贯的长期对话记忆并提供个性化的响应。尽管已经出现了检索声明的内存系统来解决此问题,但现有方法通常取决于单个粒度内存分割和检索 ...
0 0 0 2025/07/05 arXiv:2505.19549v1 elonmusk
大型语言模型(LLM)能够在与用户长时间交互过程中处理冗长的对话历史,而无需额外的内存模块;然而,他们的反应往往会忽视或错误地回忆过去的信息。在本文中,我们重新审视 LLM 时代的记忆增强响应生成。虽然之前的工作重点是摆脱过时的记忆,但我们认为这些记忆可以提供上下文线索,帮助对话系统理解过去事件的发展,从而有利于响应的生成 ...
0 0 0 2025/07/05 arXiv:2406.10996v3 Cantaloupe
大型语言模型(LLMS)在自然语言处理(NLP)任务中取得了巨大的成功,但是它们的实质性内存要求对在资源受限设备上部署的部署面临着重大挑战。奇异值分解(SVD)已成为LLM的一种有希望的压缩技术,可大大减少内存开销。但是,现有的基于SVD的方法通常难以有效地减轻SVD截断引入的错误,与原始模型相比,导致了明显的性能差距 ...
0 0 0 2025/07/05 arXiv:2502.01403v3 szfmsmdx

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)