大型语言模型(LLM)彻底改变了人工智能,具有推理,编码和沟通能力的能力,并推动了整个行业的创新。它们的真正潜力取决于有效的一致性,以确保正确,值得信赖和道德行为,以应对诸如错误信息,幻觉,偏见和滥用等挑战。尽管现有的加固学习(RL)基于对齐方式是复杂的,但直接优化方法提供了更简单的替代方法 ...
0 0 0 2025/04/22 arXiv:2502.03699v1 leec
在科学领域等专业领域,建造大规模的人类注销数据集构成了巨大的挑战,因为需要域专业知识。最近的方法已采用大型语言模型来生成合成查询,这些查询是实际用户查询的代理。但是,他们缺乏对生成的内容的控制,通常导致文档中对学术概念的覆盖不完整 ...
0 0 0 2025/04/22 arXiv:2502.11181v1 leec
随着大语言模型(LLMS)数学推理能力的快速发展,在教育环境中,AI系统越来越多地采用,以支持学生对解决问题的过程的理解。然而,在当前LLM生成的解释中,关键组件仍未得到充实:视觉解释。在现实世界的教学环境中,人的导师通常采用视觉辅助工具(例如图,标记和亮点)来增强概念清晰度 ...
0 0 0 2025/04/22 arXiv:2504.03197v2 Dreamer
鼓舞人心的搜索是探索设计以告知和激发新创意作品的过程,在移动用户界面(UI)设计中都是关键的。但是,探索UI参考的广阔空间仍然是一个挑战。现有的基于AI的UI搜索方法通常会错过关键语义,例如目标用户或应用程序的心情 ...
0 0 0 2025/04/22 arXiv:2501.17799v3 lifeicheng
多模式大语言模型(MLLM)的最新进展在一般领域取得了显着的进步,并在多模式数学推理中表现出了希望。但是,由于缺乏准确的逐步解决方案数据和推理过程中严重的幻觉,将MLLM应用于几何问题解决(GPS)仍然具有挑战性。在本文中,我们提出了一个可以自动生成几何图的逐步推理路径的管道 ...
0 0 0 2025/04/22 arXiv:2504.12773v1 Dreamer
我们引入 OLMoE,这是一种完全开放、最先进的语言模型,利用稀疏专家混合 (MoE)。 OLMoE-1B-7B 有 70 亿个 (B) 参数,但每个输入 Token 仅使用 1B。我们在 5 万亿个 Token 上对其进行预训练,并进一步对其进行调整以创建 OLMoE-1B-7B-Instruct ...
0 0 0 2025/04/22 arXiv:2409.02060v2 cccclkk
AI代理的目的是通过将基于文本的推理与外部工具调用相结合来解决复杂的任务。不幸的是,AI代理很容易受到促使注射攻击的攻击,在这些攻击中,外部工具返回的数据劫持了代理执行恶意任务。为了衡量AI代理的对抗性鲁棒性,我们介绍了AgentOjo,这是对代理的评估框架,该框架可以通过不受信任的数据执行工具 ...
0 0 0 2025/04/22 arXiv:2406.13352v3 dropout
持续学习(CL)旨在学习新数据,同时记住先前获得的知识。与CL进行图像分类相反,用于对象检测的CL面临其他挑战,例如丢失的注释问题。在这种情况下,以前任务的图像可能包含未知类的实例,这些实例可能会重新出现为未来任务中的标记,从而导致任务干扰基于重播的方法 ...
0 0 0 2025/04/22 arXiv:2409.05650v3 19396386025

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)