机器学习(ML)任务是当今边缘计算网络中的主要工作负载之一。现有的Edge-Cloud调度程序将所需资源数量分配给每个任务,但最佳利用有限的边缘资源来实现ML任务。本文提出了Tapfinger,这是一种用于Edge簇的分布式调度程序,通过将任务放置和细粒度的多资源分配来最大程度地减少ML任务的总完成时间 ...
0 0 0 2025/07/05 arXiv:2302.00571v2 fangry
基于云的软件系统日益复杂,导致事件管理成为软件开发生命周期中不可或缺的一部分。根本原因分析(rca)是事件管理流程的关键部分,对于待命工程师来说是一项艰巨的任务,需要深厚的领域知识和团队特定服务的丰富经验。rca自动化可以显着节省时间,并减轻待命工程师的事件管理负担... ...
0 0 0 2025/07/05 arXiv:2403.04123v1 wwwyuanstar
随着大语言模型和视觉模型的快速扩散,AI代理已经从孤立的,特定于任务的系统演变为能够感知,推理和行动而无需人力干预的自主互动实体。随着这些代理在虚拟和物理环境中扩散,从虚拟助手到体现的机器人,对统一,以代理为中心的基础结构的需求变得很重要。在这项调查中,我们将互联网(IOA)作为基础框架介绍,以使异构代理之间的无缝互连,动态发现和协作编排在大规模上进行协作 ...
0 0 0 2025/07/05 arXiv:2505.07176v1 HaoLiu0209
随着多模式基础模型在智能代理系统中的广泛应用,移动设备控制,智能助手互动和多模式任务执行等方案逐渐依赖于如此大的模型驱动的代理。但是,相关系统也越来越受到潜在的越狱风险。攻击者可能会通过特定的输入诱使代理绕过原始的行为约束,然后触发某些风险和敏感的操作,例如修改设置,执行未经授权的命令或模仿用户身份,从而为系统安全带来新的挑战 ...
0 0 0 2025/07/05 arXiv:2507.00841v1 hhhhh
大型语言模型(LLM)在开放式对话中取得了重大进展,但是他们无法从长期互动中保留和检索相关信息限制了它们在需要持续个性化的应用中的有效性。已经提出了外部记忆机制来解决此限制,从而使LLMS能够保持对话连续性。但是,现有的方法面临两个主要挑战 ...
0 0 0 2025/07/05 arXiv:2503.08026v1 elonmusk
大型语言模型(LLM)最近在对话代理中被广泛采用。但是,用户和代理商之间越来越长的互动累积了广泛的对话记录,这使得具有有限上下文窗口的LLM难以维持连贯的长期对话记忆并提供个性化的响应。尽管已经出现了检索声明的内存系统来解决此问题,但现有方法通常取决于单个粒度内存分割和检索 ...
0 0 0 2025/07/05 arXiv:2505.19549v1 elonmusk
大型语言模型(LLM)能够在与用户长时间交互过程中处理冗长的对话历史,而无需额外的内存模块;然而,他们的反应往往会忽视或错误地回忆过去的信息。在本文中,我们重新审视 LLM 时代的记忆增强响应生成。虽然之前的工作重点是摆脱过时的记忆,但我们认为这些记忆可以提供上下文线索,帮助对话系统理解过去事件的发展,从而有利于响应的生成 ...
0 0 0 2025/07/05 arXiv:2406.10996v3 Cantaloupe
图形用户界面(GUI)代理在理解和执行不同平台的用户指令方面取得了长足的进步。然而,将这些说明扎根于精确的界面元素仍然具有挑战性,尤其是在复杂,高分辨率,专业环境中。传统的监督芬特(SFT)方法通常需要大量不同的数据,并且表现出较弱的概括 ...
0 0 0 2025/07/04 arXiv:2505.12370v2 qwqw7878asas

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)